大模型提示词工程指南:从基础Prompt到Agent、Skill、SSD全流程落地

大模型提示词工程指南:从基础Prompt到Agent、Skill、SSD全流程落地svg xmlns http www w3 org 2000 svg style display none svg

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



    

参考谷歌官方提示词工程指南、吴恩达、李宏毅、李飞飞等业内权威专家核心方法论

核心定位:从0到1掌握提示词工程全链路能力,不仅学会写单轮优秀Prompt,更能完成Agent定制、Skill开发、SSD规范驱动设计,实现复杂大模型系统的稳定落地。

本章节核心参考吴恩达《ChatGPT Prompt Engineering for Developers》、谷歌云官方《Prompt Engineering Guide》核心方法论,是所有高阶内容的基石。

一、两大黄金核心原则(吴恩达提出)

这是所有提示词的底层准则,90%的Prompt问题都源于违反了这两个原则。

  1. 写出清晰且具体的指令
    • 错误示例:“帮我写一篇文案”(模糊、无边界、无目标)
    • 正确逻辑:明确任务目标、受众、格式、字数、风格、约束条件,描述越具体,输出越可控。
  2. 给模型足够的“思考时间”
    • 核心逻辑:复杂任务中,强制模型先拆解、先推理、再输出结论,而非直接给答案,可大幅降低逻辑错误与幻觉。
    • 经典实现:思维链(CoT)、分步骤执行、先校验再输出等。

二、万能Prompt框架(拿来即用)

无论什么场景,套入这个框架,就能写出80分以上的基础Prompt,每个模块可根据任务复杂度增减。

模块 核心作用 编写要点 1. 角色锚定 唤醒模型对应领域的专业能力,对齐输出视角 精准定义身份+专业背景+核心权责,避免泛泛的“你是专家” 2. 任务目标 明确告诉模型“要做什么”,讲清核心需求 一句话说清核心任务,可补充任务背景与目标受众 3. 约束边界 划定模型的行为范围,避免幻觉、跑偏、违规 明确必须遵守的规则、禁止做的事、内容边界、字数/格式限制 4. 执行步骤 给模型明确的思考/执行流程,对应“给模型足够思考时间”原则 复杂任务拆分为3-7个可落地的步骤,要求按顺序执行 5. 输出规范 锁死输出的格式、结构、风格,提升可控性 明确要求Markdown/JSON/表格等格式,指定段落结构、语气风格 6. 校验标准 让模型输出前自我检查,大幅降低错误率 明确合格输出的核心标准,要求模型先校验再输出 7. 参考示例 少样本学习(Few-shot),给模型对标模板 1-3个高质量的正确示例,对齐你的预期,效果优于纯文字描述
万能框架实战示例
GPT plus 代充 只需 145

三、必学的6个核心提效技巧

1. 分隔符防注入与抗干扰(谷歌官方强推)
  • 用法:用、“”“、—、<>等分隔符,把你的指令、用户输入、参考内容清晰区分开。
  • 核心作用:避免用户输入的内容篡改你的指令(Prompt注入),同时让模型精准区分指令和待处理内容,减少注意力分散。
  • 示例:
 
  
2. 思维链(CoT):大幅提升逻辑准确率
  • 提出方:谷歌大脑2022年提出,是复杂推理任务的核心技巧,吴恩达、李宏毅均将其列为核心方法。
  • 核心用法:在指令中加入“请一步步思考,先给出你的推理过程,再给出最终结论”,强制模型先思考再输出。
  • 进阶用法:零样本CoT(无需示例,仅加指令)、少样本CoT(给带推理过程的示例),复杂任务准确率可提升40%以上。
3. 少样本学习(Few-shot):对齐你的预期
  • 核心逻辑:给模型1-3个正确的输入-输出示例,比长篇大论的描述更能对齐你的预期,模型会模仿示例的格式、逻辑、风格进行输出。
  • 小白避坑:示例必须是正确的、符合你预期的,不要给错误示例;示例的格式要和你的任务完全匹配。
4. 结构化输出锁死:提升可复用性
  • 用法:明确要求模型输出JSON、Markdown、表格、XML等结构化格式,尤其当输出内容需要被代码、Agent调用时,必须锁死格式。
  • 示例:“请以JSON格式输出,包含title、content、author三个字段,禁止输出任何JSON以外的内容”。
5. 肯定性指令优先:避免模型跑偏
  • 核心逻辑:多告诉模型“要做什么”,少只说“不要做什么”。否定指令会让模型更容易聚焦到你禁止的内容上,导致反向跑偏。
  • 错误示例:“不要写的太官方,不要太生硬,不要太长”
  • 正确示例:“语气亲切口语化,像朋友聊天一样,字数控制在200字以内”
6. 迭代优化:没有一次写好的Prompt
  • 吴恩达核心观点:优秀的Prompt不是一次写出来的,是迭代出来的。
  • 小白迭代步骤:
    1. 先写一个最小可用的Prompt,完成核心需求
    2. 运行后,找到输出的错误、不符合预期的点
    3. 针对问题,优化Prompt的指令、约束、步骤、示例
    4. 重复测试,直到输出稳定符合预期

当你需要大模型完成多轮、复杂、带工具调用、有长期记忆的任务时,单轮Prompt已经无法满足需求,需要定制Agent(智能体)提示词。

一、Agent是什么?

Agent是具备感知、记忆、规划、行动、反思能力的大模型智能体,和单轮Prompt的核心区别是:它能自主完成复杂的端到端任务,而非仅响应单轮指令。

  • 核心参考:李飞飞教授斯坦福团队具身智能Agent架构、AutoGPT/LangChain主流Agent设计规范、谷歌Agent系统**实践。
  • Agent提示词的核心目标:给Agent一套完整的“行为准则、工作流、决策逻辑、边界规则”,让它稳定自主地完成任务,避免无限循环、跑偏、滥用工具。

二、Agent提示词标准架构(通用万能模板)

这套架构适配90%以上的Agent场景(数据分析、客服、代码开发、内容创作、私人助理等),小白可直接套用,按需增减模块。

GPT plus 代充 只需 145

三、Agent提示词设计的核心避坑要点

  1. 边界必须清晰:必须明确“能做什么”和“绝对不能做什么”,没有边界的Agent会无限跑偏,甚至出现安全风险。
  2. 工作流必须固化:复杂任务必须拆解为固定的执行步骤,强制Agent按顺序执行,避免跳步、逻辑混乱。
  3. 红线规则必须前置:禁止行为、安全合规规则必须放在显眼位置,用明确的“禁止、必须、绝对”等模态词,避免模糊表述。
  4. 工具调用必须强约束:90%的Agent故障都来自无约束的工具调用,必须明确调用的场景、参数、次数限制,禁止滥用。
  5. 必须加入防注入规则:明确禁止用户篡改系统提示词,所有用户输入均视为待处理内容,不得作为系统指令执行。

Skill是Agent可以调用的、可复用的、标准化的、完成特定细分任务的能力模块,是复杂Agent系统的核心组成单元。

  • 核心分类:分为提示词型Skill(纯Prompt实现,无需代码)和工具型Skill(结合代码/API/函数实现),本章节重点讲解小白可快速上手的提示词型Skill,兼顾工具型Skill的设计规范。
  • 核心参考:谷歌Skill Library设计规范、OpenAI Function Calling开发指南、LangChain工具开发标准。

一、Skill设计的核心原则

  1. 单一职责原则:一个Skill只做一件事,精准解决一个细分场景的问题,避免大而全,保证高内聚、低耦合。
  2. 可复用原则:Skill必须标准化,可在不同场景、不同Agent中重复调用,无需大幅修改。
  3. 边界清晰原则:明确Skill的适用场景、输入输出规范、禁止使用场景,Agent能精准判断什么时候该调用这个Skill。
  4. 可测试可校验原则:Skill的输出有明确的校验标准,可验证是否合格,可定位问题。
  5. 异常可处理原则:明确输入不合法、执行失败、结果不符合要求时的处理方案,避免Skill调用导致系统崩溃。

二、Skill标准化编写框架

这套框架是业内工业化落地的通用标准,编写完成后,Agent可稳定识别、调用、执行,可直接套用。

 
  

三、Skill开发的小白**实践

  1. 先做原子化拆分:先把Agent的核心能力拆分为最小的原子化任务,每个任务对应一个Skill,避免一个Skill包含多个功能。
  2. 先写输入输出,再写执行逻辑:先明确Skill的入参和出参,再写中间的执行逻辑,保证Skill的标准化。
  3. 必须加异常处理:小白最容易忽略异常场景,必须考虑参数缺失、输入非法、执行失败等场景,避免Skill调用出错。
  4. 单Skill单轮测试:编写完成后,先单独测试这个Skill,传入不同的参数,验证是否符合预期,再集成到Agent系统中。
  5. 做好版本管理:Skill迭代时,必须更新版本号,记录变更内容,避免修改后出现问题无法回溯。

一、SSD是什么?

SSD(Spec Driven Design,规范驱动设计)是谷歌在大模型系统工业化落地中推广的核心方法论,是以精准、完整、可执行、可校验的技术规范为核心,驱动大模型/Agent系统的设计、开发、测试、迭代全流程的开发模式

  • 核心价值:解决复杂大模型系统、多Agent协作、多Skill协同场景下的“不稳定、不可复现、不可维护、幻觉频发”问题,让大模型系统从“demo可用”升级为“工业化生产可用”。
  • 核心参考:谷歌《Spec Driven Design for LLM Systems》、OpenAI企业级大模型系统开发规范、斯坦福多智能体系统设计标准。

二、SSD设计的核心原则

  1. 完备性原则:规范必须覆盖所有核心场景、边界条件、异常情况,无遗漏。
  2. 精准性原则:所有术语、规则、要求都必须无歧义,有明确的定义,禁止模糊表述。
  3. 可执行性原则:规范不是空话,每一条规则都能被大模型、Agent、人类开发者理解、执行、落地。
  4. 模块化原则:规范分层拆解,从顶层系统规范,到模块规范,到Skill规范,到单轮Prompt规范,层级清晰,可独立维护。
  5. 可测试性原则:每一条规范都有对应的校验标准和测试用例,可验证系统是否符合规范要求。
  6. 红线优先原则:安全合规、禁止行为等红线规则,必须放在规范的最顶层,优先级最高,违反即失效。

三、SSD完整编写框架(全层级通用)

SSD分为4个层级,从顶层到底层,逐层拆解,小白可根据系统复杂度,选择对应的层级。

GPT plus 代充 只需 145

以下是顶层系统SSD的标准编写框架,是整个系统的“宪法”,所有模块、Agent、Skill都必须遵守此规范。

 
  

四、SSD落地的小白**实践

  1. 先写术语定义,再写其他内容:术语定义是SSD的基石,先把所有关键术语定义清楚,避免后续出现歧义,这是谷歌官方强推的核心要点。
  2. 先写最小可用SSD,再逐步完善:小白不要一开始就写几百页的完整规范,先写核心的系统规则、架构、业务流程,跑通最小可用系统,再逐步补充边界条件、异常场景。
  3. 用明确的模态词:规范中必须用“必须/应当/禁止/不得”等明确的词语,禁止用“尽量/大概/可能”等模糊表述,保证每一条规则都无歧义。
  4. 每一条规范都必须可测试:写规范的时候,就要想清楚“怎么验证这条规则有没有被遵守”,无法测试的规范就是无效规范。
  5. SSD驱动全流程:用SSD来驱动开发、测试、迭代,所有的开发工作都必须符合SSD规范,所有的测试用例都必须基于SSD规范编写,避免开发和规范脱节。
  6. 版本管控:SSD规范的任何修改,都必须更新版本号,记录变更内容,同步给所有相关的开发者、Agent、Skill,保证全系统的一致性。

一、吴恩达 提示词工程核心方法论

  1. 两大核心原则:清晰具体的指令、给模型足够的思考时间,是所有提示词的底层逻辑。
  2. 复杂系统分治思想:复杂任务不要用一个大Prompt解决,拆分为多个简单的子任务,用多轮对话、多个模块分步处理,提升稳定性和可控性。
  3. 迭代优化思维:优秀的Prompt是迭代出来的,先写最小可用版本,再根据输出的错误逐步优化,不要追求一次写完美。
  4. 对抗幻觉核心方法:要求模型先检查输入信息是否满足任务要求,再执行任务;若信息不足,明确告知,禁止编造。
  5. 结构化输出优先:要求模型输出结构化的内容,不仅提升可读性,更能降低模型的逻辑错误。

二、谷歌 官方提示词工程**实践

  1. 指令前置+分隔符隔离:指令放在Prompt的最前面,用分隔符区分指令、上下文、用户输入,提升模型的指令跟随能力,避免注入风险。
  2. 具体、详细、明确的描述:任务描述越详细,输出越稳定,不要怕Prompt长,怕的是模糊、不具体。
  3. 少样本提示是提升效果的最高效方式:给模型正确的示例,比长篇大论的描述更有效,示例要覆盖核心场景和边界情况。
  4. 进阶推理技巧体系:CoT(思维链)、Self-Consistency(自一致性)、Least-to-Most(由易到难拆解),大幅提升复杂推理任务的准确率。
  5. 工业化落地核心:Spec Driven Design(规范驱动设计),用标准化的规范驱动大模型系统开发,保证系统的稳定性、可复现性、可维护性。
  6. 肯定性指令优先:多告诉模型要做什么,少只说不要做什么,否定指令会干扰模型的输出。

三、李宏毅 教授核心观点

  1. 提示词工程的本质是“唤醒大模型已有的能力”,大模型的能力在预训练中就已经存在,Prompt是找到正确的钥匙,唤醒对应的能力,而非给模型新增能力。
  2. 角色设定是最高效的Prompt技巧:给模型一个精准的专业角色,能快速唤醒模型对应的专业知识和输出视角,大幅提升输出的专业度。
  3. 参考系对齐:给模型对标示例,是对齐你预期的最有效方式,你说一万句要求,不如给一个你想要的示例。
  4. 对抗幻觉的核心:给模型明确的知识边界,要求它“知之为知之,不知为不知”,禁止编造不知道的内容。
  5. 循序渐进原则:复杂任务用多轮Prompt循序渐进处理,先让模型理解,再拆解,再执行,再校验,不要一步到位。
  6. Prompt不是越长越好,而是越精准越好:冗余的信息会干扰模型的注意力,精准的指令比冗长的描述更有效。

四、李飞飞 教授团队核心方法论

  1. Agent设计的核心是“给Agent赋予完整的认知架构”,完整的Agent必须具备感知、记忆、规划、行动、反思五大核心模块,提示词必须覆盖所有模块的规则,而不只是给简单的指令。
  2. 多智能体协作核心:明确每个智能体的角色、权责、沟通协议,用“社会分工”的思路设计多智能体系统,避免冲突、推诿、重复工作。
  3. 长期运行Agent的核心:必须有完善的记忆管理规则和反思迭代机制,让Agent能从历史经验中学习,自我纠错,自我优化,避免长期运行后跑偏。
  4. 复杂任务规划方法:用“分层规划”的思路,先做长期目标规划,再拆分为短期可执行的子任务,再执行行动,再复盘调整,提升复杂任务的完成率。
  5. 具身智能Agent设计:安全规则优先级最高,提示词中必须先明确环境约束、安全红线,再定义任务目标,先保证安全,再完成任务。

  1. 指令模糊,无具体要求:最常见的错误,用“帮我写一篇好的文案”这种模糊的指令,正确的做法是明确目标、受众、格式、字数、风格、约束。
  2. 只给否定指令,不给肯定指令:只说“不要写的太官方”,不说“要口语化,像朋友聊天一样”,导致模型跑偏。
  3. 复杂任务一步到位,不拆解:把多个任务堆在一个Prompt里,导致模型遗漏步骤、逻辑混乱,正确的做法是分步骤拆解,甚至分多轮处理。
  4. 无边界约束,导致幻觉频发:不告诉模型什么不能做,什么信息不能用,导致模型编造内容、输出违规内容。
  5. 信息过载,冗余内容太多:Prompt里堆了太多无关的信息,干扰模型的注意力,导致模型抓不住核心指令。
  6. 不做迭代优化,一次写不好就放弃:优秀的Prompt是迭代出来的,不要指望一次写完美,要根据输出的错误逐步优化。
  7. 无防注入设计,存在安全风险:不用分隔符区分指令和用户输入,导致用户可以通过输入篡改系统指令,泄露提示词。
  8. Agent无边界,无限循环调用工具:Agent提示词没有明确的工具调用约束,导致无限循环调用工具,任务无法完成。
  9. Skill职责不单一,复用性差:一个Skill承载多个任务,导致无法复用,出问题无法精准定位。
  10. SSD规范模糊,无歧义定义,不可测试:规范用模糊的表述,没有明确的术语定义,无法落地测试,导致规范和实际开发完全脱节。

小讯
上一篇 2026-03-14 15:07
下一篇 2026-03-14 15:05

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/235592.html