大语言模型(Large Language Model,常简称 LLM)本质上是在海量文本上训练出来的概率模型:给定前文,预测下一个词(或子词)。听起来简单,但规模上来之后,会涌现出对话、摘要、翻译、简单推理、按格式输出等能力,因此成了近两年 AI 产品的核心引擎。
它通常很擅长的事
- 改写与润色:把口语改成书面语、统一语气、缩短或扩写段落。
- 头脑风暴:在同一约束下给出多份提纲、标题、类比或反例。
- 格式化处理:表格、列表、JSON 大纲、按模板填空——前提是需求说得清楚。
- 辅助阅读:对长文做摘要、提取论点、用问答方式帮你「带着问题读」。
- 编程辅助:在给出足够上下文时,补全函数、解释报错、生成测试用例(仍需人审)。
它容易翻车的地方
- 事实与引用:可能「一本正经胡说」,尤其是冷门领域或需要精确数字、法规条文的场景。
- 时效性:训练数据有截止日期,对「上周的新闻」未必可靠,需要检索或插件补足。
- 长程一致:对话很长时可能前后矛盾,重要结论要交叉核对。
- 价值与合规:涉及医疗、法律、金融等决策,应把模型输出当作参考而非结论。
怎么开始用(实践向)
- 先选一个常用平台(聊天机器人或带 API 的服务),从小任务试起:邮件润色、周报提纲、代码解释。
- 养成习惯:对重要输出追问依据或要求列出不确定点。
- 需要准确事实时,明确说「若不确定请说明」,并配合搜索引擎或专业数据库。
下一篇会写「提示词」怎么写更容易得到稳定结果——那是把 LLM 用好的关键杠杆之一。