LLM 的本质

LLM => Large Language Model => 大语言模型

你可以把它想象成一个通过阅读整个互联网而成为“文字接龙”世界冠军的超级大脑。

  • 你输入 → 就像给出了接龙的开头几个字。
  • 它输出 → 它根据从海量文本中学到的“下一个词最可能是什么”的概率,一个字一个字地接下去,直到生成一段完整的、通顺的回答。

总结来说,大语言模型是一个用海量数据和算力训练出来的、能够模拟和生成人类语言的巨型概率模型,是一个用数据和数学模拟语言规律的复杂函数。它功能强大且通用,但本质上仍是基于统计规律的“模式大师”,而非拥有理解力和意识的智能体。

  • “大” 是它当前最突出的特征,体现在三个方面:

    1. 数据大:训练数据来自整个互联网,规模以万亿词汇计。
    2. 参数大:模型内部的“知识连接点”多达数百亿至数万亿个。
    3. 算力大:训练和运行需要巨大的计算资源。
  • 局限:

    • 知识有时效性:知识截止于训练数据,无法知晓最新事件(但是可以联网搜索,比如腾讯元宝就有这个功能)
    • 不理解真实世界:它处理的是文本符号和统计规律,而非真实世界的物理逻辑和情感。
    • AI 的幻觉,详见下文

LLM:eg:deepseek 的用法技巧

撰写高质量输入(提示词)的技巧

  • LLM 的本质是一个输入输出程序,这意味着:

    • 【结构化的(eg: markdown)、表达清晰充分的、引导性强的】输入(即:好问题),能获得更棒的输出(good question can get good answer)
    • 结构化能帮助 LLM 精准辨识:对于输入,哪些部分应当被识别为一个完整的意义单元
  • 赋予 LLM 特定的角色 & 约束其回答范畴(即:规则限制,eg:让其只能给出法律相关的回答)

    • 这能让 LLM 身临其境地充分理解当前需求的场景上下文,以便给出更准确、更符合预期的内容
  • 复杂问题可拆解成 n 个小问题,让 LLM 逐个击破

  • 可给 LLM 提供高质量输出的例子,让其模仿

既然如此,编写高质量输入能不能总结出来套路/范式/模板/框架?这不就省事了么,也便于引导 AI,产出更准确、更符合预期的内容

  1. 5W1H

    • Who
    • What
    • Why
    • When
    • Where
    • How
  2. BROKE

    • Background 说明背景
    • Role 定义角色
    • Objectives 实现什么
    • Keyresult 具体效果
    • Evolve 循环改进(eg: 可以改进输入,可以改进输出,可以让 AI 不断重新回答优中选优…)

上述套路/范式/模板/框架的本质就是【高效表达的方法论】

这也太复杂了,既然我不太会写高质量的输入,那就让 AI 来写!

AI智能体: eg: Kimi-提示词专家

AI智能体

  • https://www.coze.cn/
  • coze 平台提供了一些很好的提示词模板;也允许我们自定义提示词模板,保存到提示词模板个人仓库里,便于以后复用。
  1. 赋予 LLM 特定角色(编写提示词)
  2. 插件(第三方工具集)
  3. 知识库
    • 知识库是一系列文档的集合,能够存储,管理、检索大量的知识数据
    • 是智能体的重要信息扩展来源和知识支撑,能帮助智能体在回答问题时提供准确和详细的答案
    • 能有效降低AI幻觉
    • 腾讯的知识库应用:ima
  4. 记忆系统
    • 人类的记忆

      • 感官记忆
        • 视觉记忆
        • 听觉记忆
        • 触觉记忆
      • 长时记忆
        • 显性的、陈述性的记忆
          • 语义记忆(概念、事实、…)
          • 外显记忆(生活事件)
        • 隐性的、程序性的记忆(无意识、技能)
      • 短时记忆(工作记忆)
    • 对应到AI的记忆

      • 短时记忆:上下文学习,短暂且有限,因受到transformer架构的上下文窗口长度的限制
      • 长时记忆:智能体在查询时可关注的外部存储,可通过快速检索进行访问
      • 感官记忆:对原始输入(包括文本、图像或其它模态)的嵌入表示
  5. 工作流
    • 在 AI Agent 中,支持通过可视化的方式,对【大语言模型、插件、代码块、…】等功能进行组合,
    • 来确保系统可以高效、准确地执行复杂的业务流程
    • 这就是工作流
  • 爆火的通用智能体:Manus
  • 字节旗下的通用智能体:扣子空间

总结

LLM -> 提示词工程 -> 工作流(链式调用)-> 智能体(广义上的)-> 多智能体系统

未来的 AI 智能体

  • 即:狭义上的 AI 智能体
  • 以 LLM 为大脑,以工具为手臂,以循环为模式的任务执行系统

DeepSeek 的深度思考模式是什么鬼?

深度思考模式调用的是【推理型模型】,与【指令型模型】不同

  • 指令型模型,对提示词的依赖程度高,好的提示词,效果立竿见影,eg: DeepSeek V3
    • 聪明又听话,高效又便捷,适合大多数任务,即规范性任务
  • 推理型模型,对提示词的依赖程度低,eg: DeepSeek R1, Kimi1.5 …
    • 聪明但没有那么听话的分析推理官,适用于创意思考、分析推理、…

深度思考模式下,编写高质量输入的套路/范式/模板/框架

  1. 背景信息:AI 需要了解上下文
  2. 直接需求:注意结构化(eg: markdown)
  3. 约束条件

有时候 AI 会一本正经地胡说八道?

即:AI 生成看似可信、但实际上不准确、虚构或与事实不符的内容,就像人类的幻觉一样,这是 AI 对现实世界理解不完整所导致的现象

这被称为“AI的幻觉”

如何从应用层面尽可能地解决 AI 的幻觉?

  1. 提供尽可能具体清晰的输入,避免模糊或者有歧义的表述
  2. 明确限制 AI 的回答范畴,这能避免 AI 在回答的过程中引入不相关的内容,比如可以限定 AI 只能给出法律范畴内的回答
  3. 必要时,可以要求 AI 提供信息来源或出处,以便我们后续的核实和验证
  4. 还可以将一个 AI 给出的回答作为输入,输入给另一个 AI,让第二个 AI 对第一个 AI 的回答的正确性和合理性进行评估和矫正,这种 AI 之间的相互校对有利于减少单一 AI 错误信息的传播
  5. 在一些重要场景中,必要时需要引入我们人类的审核环节,可以通过专家反馈或者用户反馈,对 AI 的输出进行定期审查和矫正
  • 【AI 终究只是一个辅助】

日常怎么跟 AI 打交道?

  • 想像成你自己是曹操,AI们都是你的文臣/军师
    • 你要做到【不透漏机密、不轻信AI的输出、兼听则明、要有自己的思考】

AI-PPT

全套快速制作

  • AI智能体: eg: kimi-PPT助手
  • 部分网站/应用提供自定义PPT模板的功能: eg: https://www.aippt.cn/

单页快速美化

LLM 赋能公文处理

AI工具补充:秘塔、纳米AI搜索

大模型本地化部署,以处理涉密文件(这是考虑到数据安全的做法)

一:信息搜集

  1. 注意信息来源可信度,通常来说可信度较高的信息来源有:政府网站、党报官媒、期刊论文(CSSCI期刊>核心期刊>普通期刊)
  2. 自己要对所得信息的(真实性、有效性、正确性、…)有自己的判断和见解

二:分析处理(擅长批量)

三:文本生成

  • AI 的作用不是替你写出文稿
    • 而是帮你减轻诸如【搜索信息,改写,扩写,缩写,…】等重复性劳动
    • 帮助你发散思维,做你的智囊团
  • 而你作为真正的主角,要在脑海里有【好公文】的样子,并指挥 AI 和你一起朝着正确的方向努力