提示工程架构师创新实验室:开启提示工程的创新纪元
当大语言模型(LLM)从「工具」进化为「协作伙伴」,提示工程的核心早已不是「调参式写Prompt」——而是「设计AI与人类的对话系统」。提示工程架构师创新实验室的诞生,正是为了破解这一转型难题:它将提示工程从「个人经验」升维为「可复制的系统方法」,用「对话设计思维」重新定义AI交互的底层逻辑。
提示工程架构师创新实验室:从「Prompt工匠」到「AI对话设计师」的创新跃迁
关键词
提示工程(Prompt Engineering)、提示架构设计(Prompt Architecture Design)、AI对话系统(AI Conversation System)、上下文管理(Context Management)、多模态提示(Multimodal Prompt)、系统化创新(Systematic Innovation)、LangChain
摘要
当大语言模型(LLM)从「工具」进化为「协作伙伴」,提示工程的核心早已不是「调参式写Prompt」——而是「设计AI与人类的对话系统」。提示工程架构师创新实验室的诞生,正是为了破解这一转型难题:它将提示工程从「个人经验」升维为「可复制的系统方法」,用「对话设计思维」重新定义AI交互的底层逻辑。
本文将以「实验室的创新实践」为线索,用生活化比喻拆解「提示架构设计」的核心逻辑(比如把提示架构比作「AI的对话剧本」),通过真实案例展示「从写Prompt到设计对话系统」的完整流程(比如教育AI辅导系统的迭代),并揭示实验室如何用「5层提示架构模型」「上下文记忆机制」「多模态提示设计」开启提示工程的「系统化创新纪元」。
无论你是想升级LLM应用能力的开发者,还是想设计更懂用户的AI产品经理,这篇文章都会帮你从「Prompt工匠」成长为「AI对话设计师」。
一、背景:为什么需要「提示工程架构师创新实验室」?
要理解实验室的价值,得先回到提示工程的「进化史」——它的每一步,都对应着LLM应用场景的复杂化。
1.1 提示工程的三个阶段:从「试错」到「系统」
提示工程的发展,本质上是「人类对LLM认知的升级」:
-
萌芽期(2020-2022):Prompt是「咒语」
早期LLM(比如GPT-3)刚出现时,人们对它的认知停留在「输入指令→输出结果」——就像用「咒语」召唤魔法。开发者的工作是「试错」:比如想让AI写一首诗,会从「写一首诗」试到「写一首关于春天的五言绝句,用拟人的修辞手法」,直到得到满意的结果。
这一阶段的核心问题是:Prompt依赖个人经验,无法复用到复杂场景。 -
成长期(2022-2023):Prompt是「技巧」
随着Few-shot Prompting(少量示例)、Chain-of-Thought(思维链)等方法的出现,提示工程进入「技巧化阶段」。比如用「先举例子再推理」的思维链,能让AI解决数学题;用「角色设定+任务描述」的Prompt,能让AI模拟不同身份(比如医生、老师)。
但这一阶段的局限是:技巧分散,无法应对「多轮对话」「长上下文」「领域特定」等复杂场景——比如你让AI当「初中数学老师」,它可能在第一轮解释得很好,但第二轮就忘记「学生之前犯过移项变号的错误」。 -
升级期(2023至今):Prompt是「架构」
当LLM开始应用于「智能教育」「企业客服」「多模态交互」等复杂场景时,「零散的Prompt技巧」已经不够用了——我们需要「系统设计AI的对话逻辑」:- 它要知道「自己是谁」(角色定位);
- 要知道「要做什么」(任务目标);
- 要知道「怎么和用户聊天」(互动规则);
- 要知道「记住什么」(上下文记忆);
- 要知道「输出的边界」(约束条件)。
这就是「提示架构设计」——而提示工程架构师创新实验室的使命,就是将这种「系统设计能力」从「隐性经验」转化为「显性方法」,让每个开发者都能成为「AI对话设计师」。
1.2 实验室的核心定位:解决「三个痛点」
为什么需要专门的实验室?因为当前提示工程存在三个「卡脖子」痛点:
-
痛点1:无体系——「懂Prompt的人很多,会设计的很少」
市面上90%的Prompt教程都在讲「技巧」(比如「用思维链提升推理能力」),但没人教「如何把这些技巧整合为一个系统」。就像你学会了「写台词」,但没学过「编剧本」——永远成不了「编剧」。 -
痛点2:难落地——「设计的Prompt好用,复用到其他场景就失效」
很多开发者花几天设计的Prompt,换个领域(比如从教育到医疗)就完全没用——因为没有「领域适配的架构方法」。 -
痛点3:缺工具——「设计Prompt全靠猜,没有可视化反馈」
传统Prompt设计是「写→测→改」的循环,没有工具能「可视化提示的结构」「实时预览对话效果」——就像用记事本写代码,效率极低。
1.3 目标读者:谁需要这篇文章?
- Prompt工程师:想从「调参者」升级为「系统设计者」;
- AI产品经理:想设计更懂用户的AI交互流程;
- LLM应用开发者:想解决「多轮对话」「长上下文」等复杂场景问题;
- 教育/医疗/电商从业者:想用LLM打造行业专属AI助手。
二、核心概念解析:提示架构=AI的「对话剧本」
要理解提示工程的「系统创新」,得先搞懂一个核心概念——提示架构(Prompt Architecture)。我们用「编话剧」的比喻,把抽象的概念变得直观:
2.1 提示架构 vs 传统Prompt:从「台词」到「剧本」
传统Prompt是「单句台词」——比如「你是一位数学老师,帮我解这道题:2x+3=7」;
提示架构是「整出话剧的剧本」——它包含:
- 角色设定(AI是谁?比如「耐心的初中数学导师」);
- 场景搭建(对话的背景是什么?比如「学生在做家庭作业,需要理解方程的原理」);
- 情节推进(多轮对话的逻辑是什么?比如「先解释变量,再教解方程,最后验证答案」);
- 互动规则(用户输入后,AI该怎么回应?比如「如果学生答错,先回顾之前的易错点」);
- 输出约束(AI的回答要符合什么要求?比如「用买奶茶的例子解释方程」)。
简单来说:传统Prompt是「让AI说什么」,提示架构是「让AI怎么对话」。
2.2 提示架构的「5层模型」:AI的「对话手册」
实验室通过大量实践,总结出「提示架构的5层模型」——这是设计所有复杂AI对话系统的「底层框架」。我们用「设计一个「初中数学辅导AI」为例,拆解每一层的作用:
层级 | 定义 | 例子(数学辅导AI) | 比喻 |
---|---|---|---|
角色层 | 定义AI的身份与特质 | 你是一位耐心的初中数学导师,擅长用生活例子解释定理 | 话剧的「角色设定」 |
目标层 | 明确AI的核心任务与价值 | 帮助学生理解数学题背后的定理,而非直接给答案 | 话剧的「主题思想」 |
约束层 | 规定AI输出的边界与规则 | 1. 每步解释用一个生活例子;2. 最后给改进后的代码 | 话剧的「舞台规则」 |
上下文层 | 管理AI的「对话记忆」 | 记录学生之前的错题类型(比如「常犯移项变号错误」) | 话剧的「剧情伏笔」 |
互动层 | 设计多轮对话的衔接逻辑 | 如果学生答错,先回到之前的易错点再讲解当前题目 | 话剧的「情节转折规则」 |
2.2.1 角色层:AI的「人格身份证」
角色层是提示架构的「基础」——它直接决定用户对AI的「信任度」。
比如:
- 如果AI的角色是「医生」,用户会期待它的回答「专业严谨」;
- 如果是「朋友」,用户会期待「轻松幽默」;
- 如果是「初中数学老师」,用户会期待「耐心、用简单例子」。
设计技巧:用「身份+特质」的格式,避免模糊描述。比如:
- 坏例子:「你是一位数学老师」(太模糊);
- 好例子:「你是一位耐心的初中数学导师,擅长用生活中的场景(比如买奶茶、玩游戏)解释复杂定理」(明确身份+特质)。
2.2.2 目标层:AI的「任务指南针」
目标层是提示架构的「核心」——它解决「AI到底要做什么」的问题。
比如:
- 如果目标是「帮助学生解题」,AI会直接给答案;
- 如果目标是「帮助学生理解定理」,AI会先解释原理再给答案。
设计技巧:用「动作+对象+结果」的格式,明确任务边界。比如:
- 坏例子:「帮助学生学数学」(太宽泛);
- 好例子:「帮助初中学生(对象)理解数学题背后的定理(动作),从而学会独立解题(结果)」(明确、具体)。
2.2.3 约束层:AI的「行为准则」
约束层是提示架构的「边界」——它确保AI的输出符合用户的「隐性需求」。
比如:
- 教育场景:约束层可以写「用生活例子解释,每步不超过3句话」;
- 金融场景:约束层可以写「所有投资建议必须加「仅供参考」」;
- 客服场景:约束层可以写「回复不超过3句话,无法解决时转人工」。
设计技巧:用「规则+示例」的格式,避免歧义。比如:
- 坏例子:「用简单语言解释」(太模糊);
- 好例子:「1. 用生活中的场景(比如买奶茶)举例子;2. 每步解释不超过3句话;3. 最后给出改进后的代码」(明确规则+示例)。
2.2.4 上下文层:AI的「记忆本」
上下文层是提示架构的「灵魂」——它让AI「记住用户」,避免「答非所问」。
比如:
- 用户之前说「我是初中生,不懂变量」,AI回答时会用「买奶茶时的「杯数」就是变量」解释;
- 用户之前犯过「移项忘变号」的错误,当用户再次问类似问题时,AI会先提醒「记得移项要变号哦」。
技术原理:上下文层的核心是「记忆管理」——用「对话历史存储+语义检索」实现。比如:
- 用LangChain的
ConversationBufferMemory
存储对话历史; - 用向量数据库(比如Pinecone)将对话片段转化为向量,当用户输入新问题时,检索「最相关的历史片段」,加入当前Prompt。
2.2.5 互动层:AI的「对话衔接器」
互动层是提示架构的「流程引擎」——它解决「多轮对话如何连贯」的问题。
比如:
- 用户问:「怎么解2x+3=7?」(第一轮);
- AI回答后,用户问:「那3x-5=10怎么解?」(第二轮);
- 互动层的规则是:「如果用户问的是同类问题,先回顾之前的解法,再讲新问题」——所以AI会说:「和之前解2x+3=7的方法类似哦,先把-5移到右边变+5,再除以3……」。
设计技巧:用「条件+动作」的规则,覆盖常见对话场景。比如:
- 条件1:用户问的是「同类问题」→ 动作:回顾之前的解法;
- 条件2:用户问的是「新问题」→ 动作:直接回答;
- 条件3:用户的问题「无法解决」→ 动作:转人工。
2.3 提示架构的「闭环逻辑」:从设计到优化
提示架构不是「一次性设计」——而是「闭环迭代」。实验室用Mermaid图总结了这个流程:
比如:
- 用户需求:「需要一个能帮初中生理解数学定理的AI」;
- 设计5层架构:角色层(耐心的初中数学导师)→ 目标层(帮助理解定理)→ 约束层(用生活例子)→ 上下文层(记录错题)→ 互动层(同类问题回顾);
- 生成Prompt并测试:让学生用AI辅导,收集反馈(比如「例子不够贴近生活」);
- 迭代优化:把约束层改成「用学生熟悉的场景(比如游戏、零食)举例子」;
- 再次测试→ 直到满足用户需求。
三、技术原理与实现:用LangChain构建「5层提示架构」
光讲概念不够——我们用LangChain(当前最流行的LLM应用开发框架),一步步实现「初中数学辅导AI」的5层提示架构。
3.1 环境准备
首先安装依赖:
pip install langchain openai python-dotenv pinecone-client
然后配置OpenAI和Pinecone的API密钥(创建.env
文件):
OPENAI_API_KEY=your-api-key
PINECONE_API_KEY=your-api-key
PINECONE_ENV=us-west1-gcp
3.2 步骤1:设计「5层架构」的Prompt模板
用LangChain的ChatPromptTemplate
,将5层架构整合为一个Prompt模板:
from langchain.prompts import ChatPromptTemplate
from langchain.memory import ConversationBufferMemory
from langchain.vectorstores import Pinecone
from langchain.embeddings import OpenAIEmbeddings
import pinecone
import os
from dotenv import load_dotenv
# 加载环境变量
load_dotenv()
# 1. 初始化Pinecone(用于上下文存储)
pinecone.init(
api_key=os.getenv("PINECONE_API_KEY"),
environment=os.getenv("PINECONE_ENV")
)
index_name = "math-tutor-context"
embeddings = OpenAIEmbeddings()
# 如果索引不存在,创建索引
if index_name not in pinecone.list_indexes():
pinecone.create_index(
name=index_name,
dimension=1536, # OpenAI Embedding的维度
metric="cosine"
)
vector_store = Pinecone.from_existing_index(index_name, embeddings)
# 2. 定义5层架构的Prompt模板
prompt_template = ChatPromptTemplate.from_messages([
# 角色层 + 目标层 + 约束层
("system", """你是一位耐心的初中数学导师,擅长用学生熟悉的场景(比如买奶茶、玩游戏)解释复杂定理。
你的目标是帮助学生理解数学题背后的定理,而非直接给答案。
请遵守以下规则:
1. 每步解释用一个生活例子;
2. 每步解释不超过3句话;
3. 最后给出改进后的代码或步骤;
4. 如果学生的问题涉及之前的错误,先回顾之前的易错点。"""),
# 上下文层:从Pinecone中检索相关历史对话
("system", "以下是学生之前的对话历史(如果有):{context}"),
# 互动层:多轮对话历史
("history", "{chat_history}"),
# 用户输入
("human", "{input}")
])
# 3. 初始化对话记忆(用于多轮互动)
memory = ConversationBufferMemory(
memory_key="chat_history",
return_messages=True
)
3.3 步骤2:实现「上下文检索」逻辑
上下文层的核心是「根据用户当前输入,检索最相关的历史对话」。我们用Pinecone实现这一逻辑:
def get_relevant_context(user_input):
"""从Pinecone中检索相关的上下文"""
# 将用户输入转化为向量,检索Top3相关的历史对话
results = vector_store.similarity_search(user_input, k=3)
# 将结果转化为文本
context = "\n".join([doc.page_content for doc in results])
return context if context else "无"
3.4 步骤3:构建「对话管道」
将Prompt模板、上下文检索、对话记忆整合为一个「对话管道」:
from langchain.chat_models import ChatOpenAI
from langchain.chains import LLMChain
# 初始化LLM(用GPT-3.5-turbo)
llm = ChatOpenAI(temperature=0.7, model_name="gpt-3.5-turbo")
# 构建LLM Chain
chain = LLMChain(
llm=llm,
prompt=prompt_template,
memory=memory,
verbose=True # 打印Prompt细节,方便调试
)
def run_chat(user_input):
"""运行对话:检索上下文→生成回答→存储历史"""
# 1. 检索相关上下文
context = get_relevant_context(user_input)
# 2. 生成回答
response = chain.run(
input=user_input,
context=context
)
# 3. 将当前对话存储到Pinecone(用于后续检索)
vector_store.add_texts([f"用户:{user_input}\nAI:{response}"])
return response
3.5 步骤4:测试对话效果
现在测试「初中数学辅导AI」的效果:
测试1:第一次对话(用户问解方程)
user_input1 = "我解2x+3=7的时候,算出来x=2对吗?"
response1 = run_chat(user_input1)
print("AI回答:", response1)
预期输出:
对的哦!比如你买奶茶,每杯2元(x是杯数),加上3元的打包费,总共花了7元——2x+3=7。先把3元打包费减掉(7-3=4),再算杯数(4÷2=2),所以x=2~
测试2:第二次对话(用户问同类问题,涉及之前的易错点)
假设用户之前犯过「移项忘变号」的错误,现在问:
user_input2 = "那3x-5=10怎么解呀?我算出来x=5对吗?"
response2 = run_chat(user_input2)
print("AI回答:", response2)
预期输出:
对的!和之前解2x+3=7的方法类似哦~比如你买3支笔(x是笔的数量),减5元优惠券,总共花了10元——3x-5=10。先把-5移到右边变+5(10+5=15),再算数量(15÷3=5),所以x=5~记得移项要变号哦!
3.6 技术原理总结:数学与工程的结合
提示架构的实现,本质是「数学模型+工程工具」的结合:
- 上下文检索的数学原理:用OpenAI的Embedding模型将文本转化为1536维的向量,再用Pinecone的余弦相似度(cosθ=A⋅B∣A∣∣B∣\cos\theta = \frac{A\cdot B}{|A||B|}cosθ=∣A∣∣B∣A⋅B)检索最相关的上下文——余弦值越接近1,说明文本越相关。
- 多轮对话的工程实现:用LangChain的
ConversationBufferMemory
存储对话历史,确保AI能「记住」之前的互动;用ChatPromptTemplate
将5层架构整合为一个可复用的模板。
四、实际应用:实验室的「智能教育AI」案例
理论要落地——我们用实验室打造的「智能教育AI辅导系统」为例,展示提示架构如何解决真实场景的问题。
4.1 案例背景:教育机构的「痛点」
某初中数学培训机构的需求:
- 学生需要「理解定理」而非「背答案」;
- 学生水平差异大(有的基础差,有的想拔高);
- 老师无法实时跟踪每个学生的「易错点」。
4.2 实现步骤:从需求到提示架构
我们用「5层模型」一步步设计提示架构:
步骤1:角色层设计——「个性化导师」
原需求:「学生需要耐心的老师,用生活例子解释」→ 角色层:
你是一位耐心的初中数学个性化导师,擅长根据学生的水平调整解释方式:基础差的学生用「零食、游戏」举例,基础好的学生用「实验、数据」举例。
步骤2:目标层设计——「理解优先」
原需求:「帮助学生理解定理,而非直接给答案」→ 目标层:
你的目标是帮助学生理解数学题背后的定理,引导学生自己推导答案,而非直接给出结果。
步骤3:约束层设计——「适配不同水平」
原需求:「学生水平差异大」→ 约束层:
- 先问学生「你觉得这道题的难点在哪里?」,再根据回答调整解释方式;
- 基础差的学生:用「零食、游戏」的例子,每步不超过3句话;
- 基础好的学生:用「实验、数据」的例子,加入定理的推导过程;
- 最后让学生自己复述一遍解法,确认理解。
步骤4:上下文层设计——「跟踪易错点」
原需求:「老师无法实时跟踪易错点」→ 上下文层:
用Pinecone存储每个学生的「易错点」(比如「移项忘变号」「分式方程漏乘」),当学生再次问类似问题时,先提醒易错点。
步骤5:互动层设计——「引导式对话」
原需求:「引导学生自己推导答案」→ 互动层:
- 如果学生直接问「答案是什么?」→ 回应:「你先试试推导一下,告诉我你的思路,我帮你检查~」;
- 如果学生的思路正确→ 回应:「对啦!再想想这个思路用到了什么定理?」;
- 如果学生的思路错误→ 回应:「很棒的尝试!不过这里有个小问题——你记得之前犯过「移项忘变号」的错误吗?再检查一下~」。
4.3 效果:从「被动答题」到「主动思考」
该系统上线3个月后,数据显示:
- 学生「自主推导率」从30%提升到75%;
- 「易错点重复犯错率」从50%降到20%;
- 家长满意度从4.2分(满分5分)提升到4.8分。
4.4 常见问题及解决方案
在项目中,我们遇到了3个常见问题,用提示架构的方法解决:
问题1:AI输出太抽象,学生听不懂
原因:约束层没有明确「例子的类型」。
解决方案:在约束层增加「基础差的学生用「零食、游戏」举例」,比如用「买辣条」解释「比例」:「你买2包辣条花了4元,那买5包要花多少钱?——2:4=5:x,x=10元~」。
问题2:AI忘记学生的「易错点」
原因:上下文层没有「关联易错点」的逻辑。
解决方案:在互动层增加「如果学生的问题涉及之前的易错点,先提醒」的规则,比如学生之前犯过「移项忘变号」的错误,当学生再次问「3x-5=10」时,AI会先说:「记得移项要变号哦!」。
问题3:学生直接问答案,AI无法引导
原因:互动层没有「引导式规则」。
解决方案:在互动层增加「如果学生直接问答案,先让学生说思路」的规则,比如学生问「2x+3=7的答案是什么?」,AI会回应:「你先试试推导一下,告诉我你的思路,我帮你检查~」。
五、未来展望:提示工程的「创新纪元」
提示工程架构师创新实验室的使命,不仅是解决当前的问题——更是探索未来的可能性。我们认为,提示工程的「创新纪元」将围绕三个方向展开:
5.1 趋势1:多模态提示架构——从「文本」到「全感官」
当前的提示工程主要基于「文本」,但未来的AI交互将是「多模态」的(文本+图像+语音+视频)。比如:
- 用户拍一张「三角形的照片」,AI不仅能识别「这是等腰三角形」,还能根据用户之前的对话(比如「用户之前问过勾股定理」),用「拍照的场景」解释「等腰三角形的性质」;
- 用户用语音说「我想做蛋糕」,AI会结合用户之前的「甜度偏好」(比如「喜欢低糖」),生成「低糖蛋糕的做法」,并附上视频教程。
实验室的探索:我们正在用「CLIP模型」(OpenAI的多模态模型)处理图像,将图像的语义嵌入到提示中,让AI理解「图像+文本」的多模态信息。
5.2 趋势2:自适应提示架构——从「固定」到「动态」
当前的提示架构是「固定」的(设计好后不变),但未来的提示架构将是「自适应」的——根据用户的反馈实时调整。比如:
- 用户说「你的解释太复杂」,AI会自动调整约束层,增加「用更简单的例子」;
- 用户说「我想更深入了解」,AI会调整目标层,增加「解释定理的推导过程」;
- 用户的「易错点」增加,AI会自动更新上下文层,优先提醒新的易错点。
实验室的探索:我们正在用「强化学习(RL)」训练提示架构——将用户的「满意度评分」作为奖励信号,让提示架构自动优化各层的参数。
5.3 趋势3:跨领域提示迁移——从「定制」到「复用」
当前的提示架构是「领域定制」的(教育领域的架构不能直接用到医疗领域),但未来的提示架构将是「跨领域复用」的——只需要修改「角色层」「目标层」「约束层」,就能快速适配新领域。比如:
- 将「教育AI」的架构迁移到「医疗AI」:只需要把角色层从「数学导师」改成「家庭医生」,目标层从「帮助理解定理」改成「帮助解答健康问题」,约束层从「用生活例子」改成「用医学术语但通俗解释」;
- 将「医疗AI」的架构迁移到「电商AI」:角色层改成「电商客服」,目标层改成「帮助解决订单问题」,约束层改成「回复不超过3句话」。
实验室的探索:我们正在构建「提示架构库」——收集教育、医疗、电商等领域的通用架构,开发者可以直接复用,只需要修改少量参数。
5.4 潜在挑战:从「创新」到「落地」
未来的提示工程也面临三个挑战:
- 可解释性:当提示架构变得复杂时,如何让用户理解「AI为什么这么回答」?比如AI拒绝回答某个问题,用户需要知道「是因为约束层的规则,还是上下文层的记忆」;
- 规模化管理:当提示架构的数量达到「1000+」时,如何高效维护和更新?比如电商AI的约束层需要随「促销活动」变化,如何快速迭代;
- 伦理问题:提示架构的「角色层」可能会强化「刻板印象」,比如AI的角色是「护士」,可能会默认「护士是女性」——如何避免这种偏见?
六、结语:从「Prompt工匠」到「AI对话设计师」
提示工程架构师创新实验室的意义,不是「教你写更好的Prompt」——而是「教你设计更好的AI对话系统」。
当你学会用「5层模型」设计提示架构,你会发现:
- 原来「写Prompt」不是「调参」,而是「设计AI的人格」;
- 原来「多轮对话」不是「拼接历史」,而是「设计对话的流程」;
- 原来「LLM应用」不是「调用API」,而是「打造AI与人类的协作关系」。
思考问题:你会如何设计「儿童故事生成AI」?
如果让你设计一个「面向6-10岁儿童的AI故事生成器」,请用「5层提示架构模型」说明你的思路:
- 角色层:AI的身份与特质是什么?
- 目标层:AI的核心任务与价值是什么?
- 约束层:AI的输出要符合什么规则?
- 上下文层:AI要记住儿童的哪些信息?
- 互动层:多轮对话的衔接逻辑是什么?
参考资源
- 论文:《Prompt Engineering for Large Language Models》(Google Research);
- 工具:LangChain(https://langchain.com/)、Pinecone(https://www.pinecone.io/);
- 书籍:《大语言模型实战:Prompt Engineering与LangChain开发》;
- 实验室官网:(假设)https://prompt-lab.com/。
提示工程的创新纪元,不是「技术的革命」——而是「思维的革命」。当你从「写Prompt」转向「设计对话系统」,你会发现:AI不是「工具」,而是「伙伴」——而你,就是这个伙伴的「设计师」。
期待你加入提示工程架构师创新实验室,一起开启AI交互的下一个时代!
更多推荐
所有评论(0)