AI,即 ArtificialIntelligence,人工智能,即所有让机器模仿人类智能的技术

比如:机器人、自动驾驶、图像识别(拍照识物、人脸识别)、语音识别(eg:从前没有接入LLM的Siri/小爱同学/…)推荐算法…


大语言模型,英文名称 LargeLanguageModel,简称 LLM,是 AI 体系下的一个新分支

它能生成我们人类的语言,所以也被称为“生成式大语言模型”

比如:美国公司 OpenAI 研发的 ChatGPT 和中国公司-深度求索研发的 DeepSeek…


LLMs 是怎么模仿和生成我们人类的语言的呢?

以 DeepSeek 为例,你可以把它想像成一个阅读了整个互联网的超级大脑

无论通过说话还是打字等方式,一旦我们人类使用语言向它传递信息

他就会基于统计学和概率论,使用它阅读了的海量文本,根据你给出的这一串字词序列,计算下一个字最有可能是什么的概率

以此一个字一个字地生成,直到生成一段完整的、通顺的回答


由此可见,LLMs 并非真正从情感和物理逻辑上理解了我们人类给它说的话,并非拥有理解力和意识的智慧生命

它的本质还是「计算」,是基于硬件算力,用海量数据训练出来的,能够模仿和生成人类语言的软件


所以,说它是“大”语言模型,主要是因为:1. 依靠的硬件算力大 2. 消耗的电能量大 3. 数据量大…

也所以,LLMs 也有诸多缺点:

  1. 上文说了,它没有理解力,没有意识,不是智慧生命

  2. 如果没有开启实时联网搜索这样的功能,那么它的知识背景就仅限于它的训练数据,它就有可能无法知晓最新知识数据

  3. 它有可能一本正经地胡说八道,这是 LLM 没有完整把握现实世界所导致的现象,这被人们称为“AI的幻觉”


如何尽可能地避免“AI的幻觉”这个问题?

  1. 首先明确,LLMs 终究只是辅助,在重要场景中,需要引入我们人类的审核环节,可要求 LLMs 提供信息的来源,也可让专家/用户进行反馈,以方便我们人类的审核和校正

  2. 当然,你也可以把一个 LLM 的输出,输入给另一个 LLM,让 B 对 A 回答的正确性和合理性进行分析评估和校正,这种 LLM 之间的相互校对有利于减少单一 LLM 错误信息的传播

  3. 使用 LLM 时,撰写高质量的提示词,即提供高质量的输入,具体做法会在下文阐述


作为普通人,我们使用 LLMs 的原则是什么?

我认为你可以把你自己想像成曹操,LLMs 都是你的文臣们

你需要做到:

  1. 不透漏机密

  2. 不轻信任何 LLM 的话、要对任何 LLM 的话有自己的求证和思考

  3. 兼听则明


如何撰写高质量的提示词 ?

首先,一个复杂的问题可以拆分成 n 个小问题,让 LLM 逐个击破

其次,如果你能获得高质量输出的例子,可以让 LLM 模仿

最后,我们来说一下如何编写高质量的提示词:

  1. 编写清晰、充分、引导性强的结构化表达(eg:markdown),结构化能够帮助 LLM 精准辨别哪些文字应当被识别为一个完整的意义单元

  2. 上文说了,你可以把 LLM 想像成大脑,所以你在编写提示词的时候,可以给 LLM 赋予特定的角色,可以让 LLM 只能给出特定范畴的回答

比如你可以让 LLM 是一个有十年从业经历的高级法律顾问,要求它只能给出法律相关的回答

这能让 LLM 身临其境地进一步理解当前需求的场景上下文,以便给出更准确、更符合预期的回答


既然如此,编写高质量提示词能不能总结出来套路/范式/模板/框架?这不就省事了么,也便于引导 LLMs 生成更准确、更符合预期的回答

  1. 5W1H

    • Who
    • What
    • Why
    • When
    • Where
    • How
  2. BROKE

    • Background 说明背景
    • Role 定义角色
    • Objectives 实现什么
    • Keyresult 具体效果
    • Evolve 循环改进(eg: 可以改进输入,可以改进输出,可以让 LLMs 不断重新回答优中选优…)

上述套路/范式/模板/框架的本质就是【高效表达的方法论】


这也太复杂了,既然我不太会写高质量的输入,那就让 LLMs 来写!=> eg: Kimi-提示词专家,是基于 LLM 的智能体(Agent)


在使用诸如 DeepSeek 等 LLM 应用软件的时候,你可能会发现又一个按钮=>深度思考模式,这是啥?

简单来说,LLM 大致分为 2 种类型,即:指令型 & 推理型,深度思考模式调用的是推理型 LLM

指令型 LLM 聪明又听话,它使用便捷,工作高效,适用于大多数规范性任务,比如 DeepSeek_V3,但它对提示词的依赖程度高

推理型 LLM 同样聪明,但尤其擅长分析推理,显得没那么听话,适用于分析推理、创意思考等任务,比如 DeepSeek_R1、Kimi_1.5、…,它对提示词的依赖程度相对较低


接下来聊聊 Agent

广义上的 Agent:任何能感知环境、做出行动、达成目标的东西

比如:人、机器人、游戏里的NPC、自动驾驶汽车、甚至细菌、动物、…

只要满足:感知 → 思考/决策 → 行动 → 达成目标,就是广义上的 Agent


狭义上的 Agent:就是现在常用的各种AI小助手,比如支付宝里面的理财助理「蚂小财」,是以 LLM 为大脑,以各种工具为手臂,以循环为模式的任务执行系统

特点:有目标、能思考、能规划、能调用工具(eg:用软件、查资料、写代码、发消息、…)、能自动完成事情,不用你一步步指挥

比如:你说“帮我写一份周报,再发给领导”,它自己理解、查数据、写内容、检查、发送

这就是狭义上的 Agent

  • 爆火的通用智能体:Manus
  • 字节旗下的通用智能体:扣子空间:https://www.coze.cn/ 提供了一些很好的提示词模板;也允许我们自定义提示词模板,保存到提示词模板个人仓库里,便于复用

未来的 Agent:像真人助理一样,能独立负责一整个领域、长期帮你做事,一个 Agent 就能顶一个私人助理/员工/专家

比如:

  • 帮你管工作、管生活、管财务、管健康
  • 自动帮你谈判、规划、学习、社交

做 PPT 用 AI

  • Kimi-PPT助手(Agent)
  • aippt.cn支持自定义PPT模板
  • WPS love AI: https://ai.wps.cn

写公文用 AI

原则:

  • AI 的作用不是替你写出文稿

    • 而是帮你减轻诸如【搜索信息,改写,扩写,缩写,…】等重复性劳动
    • 帮助你发散思维,做你的智囊团
    • 而你作为真正的主角,要在脑海里有【好公文】的样子,并指挥 AI 和你一起朝着正确的方向努力
  • 考虑到数据的安全性,处理涉密文件应使用本地部署的大模型

  • 软件推荐:秘塔、纳米AI搜索


知识扩展

知识库

  • 知识库是一系列文档的集合,能够存储,管理、检索大量的知识数据
  • 是智能体的重要信息扩展来源和知识支撑,能帮助智能体在回答问题时提供准确和详细的答案
  • 能有效降低AI幻觉
  • 腾讯的知识库应用:ima

工作流

  • 在 Agent 中,支持通过可视化的方式,对【大语言模型、插件、代码块、…】等功能进行组合
  • 来确保系统可以高效、准确地执行复杂的业务流程

(完)