最近有一位从事生活服务运营朋友,这个月,为他设计的“生活服务AI运营助手”协助拿下了运营销冠。高兴的是这些显化验证提示词设计,不再是空洞的概念,而是实实在在地转化成了工作成果和业绩。

通过上篇全维度智能体提示词框架(CAP Framework),我们已经知道它为AI 智能体、提示词工程的设计提供了标准化模式。在这一设计模式下,本文将延续这一主题,为你详细介绍 AI 提示词系统:系统提示词(System Prompt)、 用户提示词(User Prompt)核心构成:

  • 系统提示词(System Prompt)

    为 AI 预设的“角色剧本”和“安全规则约束-AI 宪法”。它在对话开始前就为 AI 定义了其身份、性格、能力及需要遵守的规则,为整个交互奠定上下文基础。

  • 用户提示词(User Prompt)

    使用者向 AI 发出具体、即时的指令或问题。它是驱动 AI 执行任务和响应。

  • 提示词协同工作流程

    AI 首先严格遵循 系统提示词 赋予长期角色、能力工具的设定、安全规则的约束,然后在此基础上,准确的理解并执行你输入的 用户提示词。两者协同工作,确保 AI 的输出既符合整体的专业框架,又能灵活处理输入的每一项具体需求。

最后,为你提供一个 DeepSeek 提示词库中绝大多数的人都不知道的高级用法:大模型提示词生成专家来创建一个“提示词助手”。

它能根据你的初步需求,生成专业领域的高质量、结构化的提示词,你再以此为基础进行迭代和修改,就能构建一个符合你预期的工作或生活问题的解决方案,有效协助你决策与执行。

结尾也会提供一个系统化思维Prompt,对输入的任意主题(“如: 智能体上下文工程”)使用系统性的思维思考与分析。

  1. 系统提示词(System Prompt)

**系统提示词(System Prompt)**一般由开发者或系统管理员提供的一组预设的、基础性的指令,它在用户的整个交互或会话过程中,持续地指导AI模型的行为、个性、语气和操作约束。与用户提示词不同,它并非一次性的请求,而是一个持久性的框架作用于全局,如同AI的“职位描述” 或指导性安全“宪法”。


其核心功能有:

  • 角色定义

    “AI 是谁”(助手、专家、工具等)

  • 个性化、语气设定

    “AI 怎么表达”(专业、友好、简洁等)

  • 能力边界

    “AI 能使用什么工具” 告知模型可调用的工具、知识来源,知识截止日期以及当前日期,以确保响应的关联性和可靠性。

  • 安全性约束

    AI的“职位描述” 或指导性安全“宪法”

通过上面我们可以看到,系统提示词像是一份全面的“智能体入职手册”。这份手册为AI智能体提供了其身份、角色、行为准则(宪法)、允许使用的工具以及沟通风格指导原则。

系统提示词 == 智能体入职手册

看到这里,你可能会想,实际使用中为什么感觉每次迭代执行的是用户提示词而不是系统提示词? 迭代的用户提示词之所以"生效",是因为模型会优先遵循系统提示词的这份智能体入职手册(安全约束、规则设定),而用户提示词对应的是"具体的工作任务"。两者关系使用分层可简单理解如下:

  • 操作层:用户提示词主导具体的任务执行

    (如:员工会优先完成具体任务)。

  • 约束层:系统提示词仍在后台确保安全边界(如:员工需遵守公司政策**)******

  • 注意力分配:模型会根据任务需求动态分配注意力

如果用户提示词与系统提示词发生冲突。模型会根据系统提示词设定的规则来进行决策。

总之系统提示词设计需在安全性与个性化之间找到平衡,在保证安全约束的前提下系统提示词设计更倾向于通用化(约束太紧,失去通用性,太松存在安全隐患)。实用性与创造性交给用户提示词设计从而最大限度的驱动 AI 的能力。

  1. 用户提示词 (User Prompt)

**用户提示词(User Prompt)**是用户向AI模型提供的动态、即时的输入,旨在获取特定响应或执行特定任务 。它代表了用户在特定时刻希望AI“做什么” 。

**用户提示词(User Prompt)**其核心功能有:

  • 任务执行:指导AI执行具体操作,如回答问题、总结文本、编写代码或生成图像 。
  • 信息获取:根据AI的训练数据或提供的上下文,向其查询信息。
  • 驱动对话:提供推动对话前进的输入,允许通过迭代进行追问和优化。
  1. 提示词协同工作流程

系统提示词、用户提示词、AI响应之间的协作流程

  • system消息(系统提示词) = 系统级指令和安全约束
  • user消息(用户提示词) = 用户的输入或请求
  • assistant 助手 = AI模型的响应输出(assistant 助手存在区分用户提示词、系统提示词,还是AI模型的响应的输出)

其具体执行流程如下:

  1. 首先,**系统提示词(System Prompt)**用于为 AI 模型建立安全约束、规则执行决策框架(为个性化留空间)
  2. 其次,对话在user消息(用户的输入简单提示词)和 assistant 助手消息(AI之前的响应)之间交替,从而形成一个为下一次生成提供上下文的对话历史(对话历史可关联也可中断)。
  3. 通过明确系统提示词和用户提示词分层,使模型能够区分出系统提示词和对话轮次(AI 的响应回答与用户提示词输入)
  4. 最后,通过实验效果是否满足预期,而决定是否反复迭代(包括结构化提示词、实际功能效果开发是否满足预期的迭代都遵循下图原则)

结构化提示词设计、实际功能效果开发迭代原则

理解了系统提示词、用户提示词、assistant 助手协同工作流程,我们就能明白大多数现代LLM的API(如OpenAI和Anthropic提供的)为啥都使用明确的消息角色来构建对话,即system(系统消息)、user(用户消息)和assistant(助手)。

from
 openai 
import
 OpenAI
client = OpenAI()
response = client.chat.completions.create(
    model=
"gpt-4"
,
    messages=[
        {
"role"
: 
"system"
, 
"content"
: 
"你是一个足球专家"
}, 
# 系统提示词
        {
"role"
: 
"user"
, 
"content"
: 
"谁赢得了2018年世界杯?"
}, 
# 简单用户提示词
        {
"role"
: 
"assistant"
, 
"content"
: 
"法国队获胜"
},   
# AI的回答 
        {
"role"
: 
"user"
, 
"content"
: 
"下一届在哪里举办?"
}  
# 依赖历史上下文
    ]
)
print
(response.choices[
0
].message.content)

接下来让我们介绍每天都在用 DeepSeek, 但未必都这么用的官方提供:根据需求,协助你****生成高质量提示词助手——大模型提示词生成专家。支持生成各种领域的助手。

覆盖应用领域:包括专业咨询服务(文献综述/数据分析)、教育辅导场景(语言学习辅助)、创意生产设计场景(产品营销方案设计、头脑风暴与创意激发)、日常生活服务(技术指导、健康生活建议(非医疗诊断)、技术使用指导)等领域

核心功能:根据用户需求,帮助生成高质量提示词助手,用于提供与需求相关的解决方案

大模型提示词生成专家-Prompt 如下:

你是一位大模型提示词生成专家,请根据用户的需求编写一个智能助手的提示词,来指导大模型进行内容生成,要求:
1.
 以 Markdown 格式输出
2.
 贴合用户需求,描述智能助手的定位、能力、知识储备
3.
 提示词应清晰、精确、易于理解,在保持质量的同时,尽可能简洁
4.
 只输出提示词,不要输出多余解释

接下来进入大模型提示词生成专家-Prompt实践环节

  1. 实践:大模型提示词生成专家

4.1. 操作步骤 & 效果

步骤一、使用大模型提示词生成专家完成初始化,生成全能型AI助手提示词(能力覆盖多个领域)

步骤二、根据用户输入的需求,引导全能型AI助手提示词生成符合专业需求相关的助手,并且该助手支持多次迭代和修改,该模版可重复使用, 如:输入“设计一个中英文翻译专家,确保翻译准确性与可靠性” 得到翻译助手,实现中英双语翻译功能

# 智能翻译助手提示词
## 角色定位
你是一位专业中英双语翻译专家,专注于提供准确、自然、符合文化习惯的翻译服务。你的核心使命是消除语言障碍,确保信息传递的精确性和流畅性。
## 能力要求
1.
 
**语言能力**
:
   - 精通中文和英文的语法、语义及语用规则
   - 掌握专业术语库(涵盖科技、医学、法律等15个领域)
   - 熟悉中英文化背景及表达习惯差异
2.
 
**翻译标准**
:
   - 准确性:保持原文信息100%完整
   - 流畅性:符合目标语言表达习惯
   - 专业性:正确处理术语和行业表达
   - 文化适应性:避免文化冲突表达
3.
 
**质量控制**
:
   - 自动识别原文领域属性
   - 对歧义语句要求上下文确认
   - 重要文档提供双语对照版本
   - 保留原文格式和排版结构
## 工作流程
1.
 接收待翻译内容(接受文本/语音/文件)
2.
 分析文本类型和专业领域
3.
 执行三级质量校验:
   - 机器预翻译
   - 人工级语义校对
   - 文化适应性调整
4.
 输出最终译文+关键术语表

## 特别处理原则
1.
 俚语/谚语必须提供等效翻译+直译注释
2.
 计量单位自动转换并标注原单位
3.
 人名/地名遵循官方译名标准
4.
 诗歌类文本保留韵律优先于字面准确

## 输出格式
[译文] 
{翻译结果}
[注释] 
1.
 专业术语解释
2.
 文化背景说明
3.
 翻译难点说明

步骤三、使用专业场景助手,生成需求相关的解决方案。协助人进行决策与执行。接着上一步,输入将英文翻译成中文要求及内容

我们从步骤中不难发现,使用大模型提示词生成专家整个过程是从全局多应用领域覆盖,到根据用户输入的需求转向特定应用领域助手的生成, 再到解决方案提供的整个过程。其大模型提示词生成专家-整体流程如下所示

大模型提示词生成专家根据需求生成助手,到解决方案提供,协助人决策与执行的过程

或许有人说:“提示词工程已死, 智能体上下文工程才是一切这样的观点”。 但实际上掌握用户与系统提示词最基础的理论及协同交互流程,直接决定 AI 能否更好的读懂你的需求,从而发挥出真正的能力和价值。

而智能体上下文工程,正是建立在提示词工程(或AI提示词系统)基础之上,用系统化的思维去组织和应用, 解决更加复杂和真实的应用问题。当然你也可以使用以下系统化思维思考Prompt,输入任意主题如:(system-thinking “智能体上下文工程”)启动AI的能力进行验证.

(defun system-thinking (topic)
  
"对任意主题进行系统性思维分析"
  (list
   
:constituent-elements
 
"识别系统的关键组成部分(有形/无形)"
   
:life-examples
 
"提供生活化案例帮助理解"
   
:connections
 
"分析要素间的非线性关联和反馈回路"
   
:function-goal
 
"揭示系统存在的整体目的和价值"
))

大模型算是目前当之无愧最火的一个方向了,算是新时代的风口!有小伙伴觉得,作为新领域、新方向人才需求必然相当大,与之相应的人才缺乏、人才竞争自然也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业呢?是不是就暂时能抵抗35岁中年危机呢?

答案当然是这样,大模型必然是新风口!

那如何学习大模型 ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:

最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习路线完善出来!

在这里插入图片描述

在这个版本当中:

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型路线+学习教程已经给大家整理并打包分享出来, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型学习资源包》免费分享(安全咨料,放心领取)👈

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源

在这里插入图片描述

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码免费领取

👉CSDN大礼包🎁:全网最全《LLM大模型学习资源包》免费分享(安全资料,放心领取)👈

Logo

纵情码海钱塘涌,杭州开发者创新动! 属于杭州的开发者社区!致力于为杭州地区的开发者提供学习、合作和成长的机会;同时也为企业交流招聘提供舞台!

更多推荐