<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>lew · inference notes</title><link>http://lew.cool/</link><description>Recent content on lew · inference notes</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 18:00:00 +0800</lastBuildDate><atom:link href="http://lew.cool/index.xml" rel="self" type="application/rss+xml"/><item><title>GitOps 与声明式交付：仓库即真相，控制器持续对齐</title><link>http://lew.cool/posts/gitops-basics/</link><pubDate>Wed, 08 Apr 2026 16:00:00 +0800</pubDate><guid>http://lew.cool/posts/gitops-basics/</guid><description>&lt;p>&lt;strong>GitOps&lt;/strong> 常被说成「把 Git 当数据库」，更贴近工程的说法是：&lt;strong>Git 仓库里的声明式描述是期望状态&lt;/strong>，集群里的控制器不断&lt;strong>对齐&lt;/strong>当前状态与期望状态。&lt;/p></description></item><item><title>日常开发里，我怎样和 AI 工具协作</title><link>http://lew.cool/posts/ai-daily-tools/</link><pubDate>Wed, 08 Apr 2026 11:00:00 +0800</pubDate><guid>http://lew.cool/posts/ai-daily-tools/</guid><description>&lt;p>这篇不写具体产品排行榜——各家迭代太快，名字半年一换。只记录几条&lt;strong>稳定&lt;/strong>的协作原则，适用于带大模型能力的编辑器、终端助手或聊天窗口。&lt;/p></description></item><item><title>可观测性三件套：Metrics、Logs、Traces 在排障里怎么配合</title><link>http://lew.cool/posts/observability-cloud-native/</link><pubDate>Wed, 08 Apr 2026 09:30:00 +0800</pubDate><guid>http://lew.cool/posts/observability-cloud-native/</guid><description>&lt;p>系统上 &lt;strong>Kubernetes&lt;/strong> 之后，&lt;strong>服务实例变多、生命周期变短&lt;/strong>，单靠 SSH 看日志往往不够。&lt;strong>Metrics（指标）&lt;/strong>、&lt;strong>Logs（日志）&lt;/strong>、&lt;strong>Traces（链路）&lt;/strong> 三者互补，目标是把「哪里慢 / 哪里错」从小时级缩到分钟级。&lt;/p></description></item><item><title>Kubernetes 核心对象：Pod、Workload 与 Service 的一页备忘</title><link>http://lew.cool/posts/k8s-core-concepts/</link><pubDate>Mon, 06 Apr 2026 14:00:00 +0800</pubDate><guid>http://lew.cool/posts/k8s-core-concepts/</guid><description>&lt;p>第一次接触 &lt;strong>Kubernetes&lt;/strong> 时，对象名很多，但抓住三条主线会轻松很多：&lt;strong>跑什么（Pod）&lt;/strong>、&lt;strong>谁保证数量与健康（Workload）&lt;/strong>、&lt;strong>怎么从集群外访问（Service）&lt;/strong>。&lt;/p></description></item><item><title>为什么需要 RAG：给 LLM 配一本「可随时翻的书」</title><link>http://lew.cool/posts/ai-rag-intro/</link><pubDate>Sun, 05 Apr 2026 09:15:00 +0800</pubDate><guid>http://lew.cool/posts/ai-rag-intro/</guid><description>&lt;p>&lt;strong>RAG&lt;/strong>（Retrieval-Augmented Generation，检索增强生成）解决的是一件很朴素的事：模型&lt;strong>记不住&lt;/strong>你公司内部的最新文档、你刚写的笔记、或闭源知识库里的细节——但它&lt;strong>很会组织语言&lt;/strong>。RAG 的做法是：先&lt;strong>检索&lt;/strong>相关片段，再把这些片段&lt;strong>塞进提示&lt;/strong>里，让模型基于材料回答。&lt;/p></description></item><item><title>提示词工程入门：让模型更稳的四条习惯</title><link>http://lew.cool/posts/ai-prompt-basics/</link><pubDate>Fri, 03 Apr 2026 14:30:00 +0800</pubDate><guid>http://lew.cool/posts/ai-prompt-basics/</guid><description>&lt;p>「提示词工程」（Prompt Engineering）听起来很高大上，核心其实很简单：&lt;strong>把需求说清楚&lt;/strong>，让模型在有限步数内逼近你要的输出。下面四条是我日常用得最多、也最容易复制给新手的习惯。&lt;/p></description></item><item><title>云原生是什么：从「上云」到「为云而设计」</title><link>http://lew.cool/posts/cloud-native-what/</link><pubDate>Thu, 02 Apr 2026 10:00:00 +0800</pubDate><guid>http://lew.cool/posts/cloud-native-what/</guid><description>&lt;p>日常语境里，「云原生」常被当成时髦口号。更贴近工程实践的理解是：&lt;strong>让应用充分利用云平台的弹性、自动化与托管能力&lt;/strong>，而不是简单把传统部署搬到虚拟机里。&lt;/p></description></item><item><title>大语言模型能做什么：一份面向初学者的鸟瞰</title><link>http://lew.cool/posts/ai-llm-overview/</link><pubDate>Wed, 01 Apr 2026 10:00:00 +0800</pubDate><guid>http://lew.cool/posts/ai-llm-overview/</guid><description>&lt;p>大语言模型（Large Language Model，常简称 &lt;strong>LLM&lt;/strong>）本质上是在海量文本上训练出来的概率模型：给定前文，预测下一个词（或子词）。听起来简单，但规模上来之后，会涌现出&lt;strong>对话、摘要、翻译、简单推理、按格式输出&lt;/strong>等能力，因此成了近两年 AI 产品的核心引擎。&lt;/p></description></item></channel></rss>