理解并应用生成式(大)语言模型(LLM),提升职场人士工作效能
LLM 的本质
LLM => Large Language Model => 大语言模型
你可以把它想象成一个通过阅读整个互联网而成为“文字接龙”世界冠军的超级大脑。
- 你输入 → 就像给出了接龙的开头几个字。
- 它输出 → 它根据从海量文本中学到的“下一个词最可能是什么”的概率,一个字一个字地接下去,直到生成一段完整的、通顺的回答。
总结来说,大语言模型是一个用海量数据和算力训练出来的、能够模拟和生成人类语言的巨型概率模型,是一个用数据和数学模拟语言规律的复杂函数。它功能强大且通用,但本质上仍是基于统计规律的“模式大师”,而非拥有理解力和意识的智能体。
“大” 是它当前最突出的特征,体现在三个方面:
- 数据大:训练数据来自整个互联网,规模以万亿词汇计。
- 参数大:模型内部的“知识连接点”多达数百亿至数万亿个。
- 算力大:训练和运行需要巨大的计算资源。
局限:
- 知识有时效性:知识截止于训练数据,无法知晓最新事件(但是可以联网搜索,比如腾讯元宝就有这个功能)
- 不理解真实世界:它处理的是文本符号和统计规律,而非真实世界的物理逻辑和情感。
- AI 的幻觉,详见下文
LLM:eg:deepseek 的用法技巧
撰写高质量输入(提示词)的技巧
LLM 的本质是一个输入输出程序,这意味着:
- 【结构化的(eg: markdown)、表达清晰充分的、引导性强的】输入(即:好问题),能获得更棒的输出(good question can get good answer)
- 结构化能帮助 LLM 精准辨识:对于输入,哪些部分应当被识别为一个完整的意义单元
赋予 LLM 特定的角色 & 约束其回答范畴(即:规则限制,eg:让其只能给出法律相关的回答)
- 这能让 LLM 身临其境地充分理解当前需求的场景上下文,以便给出更准确、更符合预期的内容
复杂问题可拆解成 n 个小问题,让 LLM 逐个击破
可给 LLM 提供高质量输出的例子,让其模仿
既然如此,编写高质量输入能不能总结出来套路/范式/模板/框架?这不就省事了么,也便于引导 AI,产出更准确、更符合预期的内容
5W1H
- Who
- What
- Why
- When
- Where
- How
BROKE
- Background 说明背景
- Role 定义角色
- Objectives 实现什么
- Keyresult 具体效果
- Evolve 循环改进(eg: 可以改进输入,可以改进输出,可以让 AI 不断重新回答优中选优…)
…
上述套路/范式/模板/框架的本质就是【高效表达的方法论】
这也太复杂了,既然我不太会写高质量的输入,那就让 AI 来写!
AI智能体: eg: Kimi-提示词专家
AI智能体
- https://www.coze.cn/
- coze 平台提供了一些很好的提示词模板;也允许我们自定义提示词模板,保存到提示词模板个人仓库里,便于以后复用。
- 赋予 LLM 特定角色(编写提示词)
- 插件(第三方工具集)
- 知识库
- 知识库是一系列文档的集合,能够存储,管理、检索大量的知识数据
- 是智能体的重要信息扩展来源和知识支撑,能帮助智能体在回答问题时提供准确和详细的答案
- 能有效降低AI幻觉
- 腾讯的知识库应用:ima
- 记忆系统
人类的记忆
- 感官记忆
- 视觉记忆
- 听觉记忆
- 触觉记忆
- 长时记忆
- 显性的、陈述性的记忆
- 语义记忆(概念、事实、…)
- 外显记忆(生活事件)
- 隐性的、程序性的记忆(无意识、技能)
- 显性的、陈述性的记忆
- 短时记忆(工作记忆)
- 感官记忆
对应到AI的记忆
- 短时记忆:上下文学习,短暂且有限,因受到transformer架构的上下文窗口长度的限制
- 长时记忆:智能体在查询时可关注的外部存储,可通过快速检索进行访问
- 感官记忆:对原始输入(包括文本、图像或其它模态)的嵌入表示
- 工作流
- 在 AI Agent 中,支持通过可视化的方式,对【大语言模型、插件、代码块、…】等功能进行组合,
- 来确保系统可以高效、准确地执行复杂的业务流程
- 这就是工作流
- 爆火的通用智能体:Manus
- 字节旗下的通用智能体:扣子空间
总结
LLM -> 提示词工程 -> 工作流(链式调用)-> 智能体(广义上的)-> 多智能体系统
未来的 AI 智能体
- 即:狭义上的 AI 智能体
- 以 LLM 为大脑,以工具为手臂,以循环为模式的任务执行系统
DeepSeek 的深度思考模式是什么鬼?
深度思考模式调用的是【推理型模型】,与【指令型模型】不同
- 指令型模型,对提示词的依赖程度高,好的提示词,效果立竿见影,eg: DeepSeek V3
- 聪明又听话,高效又便捷,适合大多数任务,即规范性任务
- 推理型模型,对提示词的依赖程度低,eg: DeepSeek R1, Kimi1.5 …
- 聪明但没有那么听话的分析推理官,适用于创意思考、分析推理、…
深度思考模式下,编写高质量输入的套路/范式/模板/框架
- 背景信息:AI 需要了解上下文
- 直接需求:注意结构化(eg: markdown)
- 约束条件
有时候 AI 会一本正经地胡说八道?
即:AI 生成看似可信、但实际上不准确、虚构或与事实不符的内容,就像人类的幻觉一样,这是 AI 对现实世界理解不完整所导致的现象
这被称为“AI的幻觉”
如何从应用层面尽可能地解决 AI 的幻觉?
- 提供尽可能具体清晰的输入,避免模糊或者有歧义的表述
- 明确限制 AI 的回答范畴,这能避免 AI 在回答的过程中引入不相关的内容,比如可以限定 AI 只能给出法律范畴内的回答
- 必要时,可以要求 AI 提供信息来源或出处,以便我们后续的核实和验证
- 还可以将一个 AI 给出的回答作为输入,输入给另一个 AI,让第二个 AI 对第一个 AI 的回答的正确性和合理性进行评估和矫正,这种 AI 之间的相互校对有利于减少单一 AI 错误信息的传播
- 在一些重要场景中,必要时需要引入我们人类的审核环节,可以通过专家反馈或者用户反馈,对 AI 的输出进行定期审查和矫正
- 【AI 终究只是一个辅助】
日常怎么跟 AI 打交道?
- 想像成你自己是曹操,AI们都是你的文臣/军师
- 你要做到【不透漏机密、不轻信AI的输出、兼听则明、要有自己的思考】
AI-PPT
全套快速制作
- AI智能体: eg: kimi-PPT助手
- 部分网站/应用提供自定义PPT模板的功能: eg: https://www.aippt.cn/
单页快速美化
- 用好 AI 工具
- 用好 WPS 的 AI 功能
LLM 赋能公文处理
AI工具补充:秘塔、纳米AI搜索
大模型本地化部署,以处理涉密文件(这是考虑到数据安全的做法)
一:信息搜集
- 注意信息来源可信度,通常来说可信度较高的信息来源有:政府网站、党报官媒、期刊论文(CSSCI期刊>核心期刊>普通期刊)
- 自己要对所得信息的(真实性、有效性、正确性、…)有自己的判断和见解
二:分析处理(擅长批量)
三:文本生成
- AI 的作用不是替你写出文稿
- 而是帮你减轻诸如【搜索信息,改写,扩写,缩写,…】等重复性劳动
- 帮助你发散思维,做你的智囊团
- 而你作为真正的主角,要在脑海里有【好公文】的样子,并指挥 AI 和你一起朝着正确的方向努力