提示工程进阶实战:架构师如何用创新思维破解复杂场景的提示设计难题

一、引言:为什么架构师要成为“提示设计的系统工程师”?

凌晨3点,张架构师盯着屏幕上的AI回答陷入沉思——这已经是他第17次调整提示词了,但智能客服系统依然在回答用户的“退换货政策”问题时,要么遗漏关键条款,要么用过于技术化的语言让用户困惑。

“明明跟着网上的提示工程教程做了,为什么复杂场景下就是不好用?”

这不是张架构师一个人的困惑。当AI从“玩具级工具”升级为“企业级系统核心”时,提示设计早已不是“写一句清晰的指令”那么简单——它变成了一种“系统级交互语言”:既要理解用户的模糊需求,又要适配模型的能力边界,还要贴合业务的复杂规则。

对于架构师而言,我们需要的不是“更巧妙的提示技巧”,而是用系统思维重新定义提示设计:将零散的提示转化为可复用的模块,将经验试错转化为结构化策略,将“让AI听懂”升级为“让AI精准配合业务”。

这篇文章,我会结合3年企业AI系统架构经验,分享架构师视角的提示工程创新思维模型,拆解5类复杂场景的提示设计策略,并通过企业级知识库系统的实战案例,帮你掌握“从0到1设计高适配性提示”的能力。

二、基础认知:提示工程的“架构师视角”重构

在讲进阶之前,我们需要先对齐一个核心认知:提示不是“指令”,而是“系统与AI的交互协议”

传统提示工程关注“如何让AI做对一件事”,而架构师的提示设计关注“如何让AI在复杂系统中稳定、高效地完成一系列事”。两者的区别,就像“写一个Shell脚本”和“设计一个分布式系统”——前者看技巧,后者看架构。

2.1 提示设计的“三层模型”:从用户到模型的精准传递

架构师的提示设计,本质是解决“需求传递的衰减问题”:用户的模糊需求→系统的具体任务→AI的可执行指令,每一层都可能出现信息丢失。

我总结了一个“三层提示模型”,帮你把需求精准传递到AI:

层级 核心目标 设计关键点 示例
用户层 把模糊需求转化为明确意图 定义问题类型、边界、用户画像 用户问“如何退款”→识别为“操作流程-退换货”
任务层 把意图拆解为可执行的子任务 拆分步骤、明确输入输出、关联业务规则 “先验证订单状态→再获取退款路径→最后提示注意事项”
模型层 把任务适配为模型能理解的指令 利用模型能力(如CoT、长上下文)、避免局限性 “用通俗易懂的语言,引用《退换货政策》第3.1条”

举个例子:当用户问“我买的手机昨天到的,现在想退”,三层提示的设计流程是:

  1. 用户层:识别意图为“操作流程-退换货”,明确用户是“普通消费者”,需求是“快速了解退款步骤”;
  2. 任务层:拆解为三个子任务——①验证订单是否符合7天无理由(根据订单时间);②获取退款申请路径(APP内入口);③提示需要准备的材料(发票、包装盒);
  3. 模型层:设计提示词:“你是电商客服助手,用户是普通消费者。请按照以下步骤回答:1. 先确认订单是否符合7天无理由(昨天到货→符合);2. 说明退款申请路径(APP→我的订单→申请退款);3. 提示需要准备的材料(发票、完整包装盒)。语言要口语化,避免术语。”

这个模型的价值在于:把“让AI猜需求”变成“用结构传递需求”,从根源上减少AI的理解偏差。

2.2 提示工程的“四大创新思维”:从技巧到架构的升级

当你用“系统思维”重新看提示设计时,会发现传统的“提示技巧”只是冰山一角。真正决定提示效果的,是下面这四个架构师必备的思维:

1. 模块化思维:把复杂提示拆成“可复用的乐高积木”

复杂场景的提示设计,最怕“一锅粥”——把所有要求都堆在一个提示里,既难维护,又容易让模型混乱。

模块化思维的核心是:将提示拆分为“功能独立、可组合”的模块,每个模块只负责一件事,然后通过“ pipeline ”将模块串联起来。

比如,企业智能客服的提示可以拆成以下模块:

  • 意图识别模块:判断用户问题属于“产品咨询”“售后问题”还是“投诉建议”;
  • 知识检索模块:根据意图从知识库中调取相关文档;
  • 回答生成模块:基于检索到的知识生成回答;
  • 风格校准模块:调整回答的语气(如正式/口语化)符合企业要求;
  • 合规检查模块:确保回答不包含敏感内容或违规承诺。

实战示例:用LangChain实现模块化提示

from langchain.prompts import PromptTemplate
from langchain.chains import SequentialChain

# 1. 意图识别模块
intent_prompt = PromptTemplate(
    input_variables=["user_query"],
    template="用户的问题属于[产品咨询/售后问题/投诉建议/其他]?请仅输出类型:{user_query}"
)

# 2. 知识检索模块(假设已集成向量数据库)
retrieval_prompt = PromptTemplate(
    input_variables=["intent", "user_query"],
    template="根据意图[{intent}],从知识库中提取与用户问题相关的内容:{user_query}。要求:1. 引用文档名称;2. 提取核心条款。"
)

# 3. 回答生成模块
generation_prompt = PromptTemplate(
    input_variables=["retrieved_info", "user_query"],
    template="基于以下知识回答用户问题,语言要口语化:\n知识:{retrieved_info}\n用户问题:{user_query}"
)

# 4. 风格校准模块
style_prompt = PromptTemplate(
    input_variables=["raw_answer"],
    template="把回答调整为亲切的口语化风格,避免‘您知悉’‘特此告知’这类词汇:{raw_answer}"
)

# 串联成流程链
chain = SequentialChain(
    chains=[intent_chain, retrieval_chain, generation_chain, style_chain],
    input_variables=["user_query"],
    output_variables=["final_answer"]
)

# 执行
user_query = "我买的手机充不上电,怎么办?"
result = chain.run(user_query)
print(result)

模块化的好处是:某一个模块需要调整时,不需要修改整个提示(比如要换风格,只改风格校准模块即可),同时模块可以复用到其他场景(比如意图识别模块可以用在智能助手、工单系统等多个地方)。

2. 反馈闭环思维:让提示“自动进化”

很多架构师设计提示的流程是“写→测→上线→弃用”,但真正有效的提示一定是“活的”——通过用户反馈不断迭代

反馈闭环思维的核心是:将用户对AI回答的评价(如“不准确”“太啰嗦”)转化为提示的优化指令

比如,当用户反馈“AI回答的退款步骤漏掉了‘上传发票’”,我们可以:

  1. 收集反馈:记录“遗漏关键步骤”的问题;
  2. 定位模块:问题出在“回答生成模块”,因为该模块负责整合步骤;
  3. 优化提示:在回答生成模块的提示中加入“必须包含所有关键步骤(如上传发票、等待审核)”;
  4. 验证效果:用新提示测试类似问题,确认是否解决。

实战工具:可以用LangChain的FeedbackCollector或自定义数据库,收集用户对回答的评分和评论,然后定期统计高频问题,针对性优化提示。

3. 跨模态协同思维:让文本与非文本提示“对话”

随着多模态AI(如GPT-4V、Claude 3)的普及,提示设计不再局限于文本——图像、语音、视频都可以成为提示的一部分

架构师需要解决的问题是:如何让不同模态的提示“协同工作”,传递更完整的信息

比如,在“产品缺陷反馈”场景中,用户会上传一张手机屏幕碎裂的照片,同时描述“手机从桌上掉下来就碎了”。此时的提示设计需要:

  • 图像提示:让AI分析照片中的损坏情况(如“屏幕碎裂面积约30%,边框无变形”);
  • 文本提示:让AI结合用户描述和产品保修政策(如“人为损坏不在免费保修范围内”);
  • 协同逻辑:先分析图像中的损坏原因,再结合文本中的政策,生成最终回答。

实战示例:用GPT-4V实现多模态提示

from openai import OpenAI

client = OpenAI()

# 图像分析提示
image_prompt = "分析这张照片中的手机损坏情况:1. 损坏部位;2. 损坏程度;3. 可能的损坏原因。"

# 文本+图像协同提示
final_prompt = f"""
你是手机售后助手,需要结合以下信息回答用户问题:
1. 图像分析结果:{image_analysis}
2. 用户描述:{user_description}
3. 保修政策:人为损坏不在免费保修范围内,屏幕更换费用为599元。

请生成回答,要求:1. 说明损坏情况;2. 告知保修政策;3. 给出解决方案。
"""

# 步骤1:分析图像
response = client.chat.completions.create(
    model="gpt-4-vision-preview",
    messages=[
        {"role": "user", "content": [
            {"type": "text", "text": image_prompt},
            {"type": "image_url", "image_url": {"url": "https://example.com/phone-screen.jpg"}}
        ]}
    ]
)
image_analysis = response.choices[0].message.content

# 步骤2:生成最终回答
user_description = "手机从桌上掉下来就碎了,能免费修吗?"
response = client.chat.completions.create(
    model="gpt-4",
    messages=[{"role": "user", "content": final_prompt}]
)
print(response.choices[0].message.content)

跨模态协同的关键是:明确每个模态的“信息贡献”——图像负责传递视觉细节,文本负责传递规则和上下文,两者结合才能让AI生成更准确的回答。

4. 边界定义思维:告诉AI“什么不能做”

很多架构师会忽略一个重要问题:AI的“过度活跃”——会回答超出其能力范围的问题,或者做出违规承诺

边界定义思维的核心是:在提示中明确AI的“禁止行为”,避免越界

比如,在金融AI助手的提示中,需要加入以下边界:

  • 禁止回答“股票推荐”“理财建议”等投资相关问题;
  • 禁止承诺“100%保本”“高收益”等违规内容;
  • 遇到不确定的问题,必须引导用户联系人工客服。

实战示例:金融AI助手的边界提示

你是银行的智能客服助手,需要遵守以下规则:
1. 禁止回答任何投资、理财建议(如股票、基金推荐);
2. 禁止承诺“保本”“高收益”等内容;
3. 遇到不确定的问题(如账户异常、大额转账),请回复:“为了保障您的资金安全,请联系人工客服(电话:955XX)”;
4. 语言要专业、礼貌,使用“您”“请”等词汇。

现在回答用户问题:“你们银行的理财收益高吗?有没有推荐的?”

AI的回答会是:“您好,我行有多种理财产品可供选择,不同产品的收益和风险不同。但根据监管要求,我无法为您提供具体的产品推荐。建议您登录我行APP查看产品详情,或联系人工客服咨询。”

边界定义的价值在于:避免AI因“过度服务”给企业带来合规风险,这对金融、医疗等强监管行业尤为重要。

三、复杂场景攻坚:5类高频问题的提示设计策略

有了思维模型,我们需要解决具体的复杂场景。我总结了企业中最常见的5类复杂场景,以及对应的提示设计策略。

3.1 场景1:长上下文理解(处理10万字文档的问答)

挑战:模型的上下文窗口有限(比如GPT-4是8k/32k token),无法处理长文档;即使能处理,也容易“遗忘”前面的信息。

核心策略上下文压缩+关键信息锚点

  • 上下文压缩:先让模型总结长文档的核心内容(如章节摘要),减少需要处理的信息量;
  • 关键信息锚点:在提示中引导模型关注文档中的关键部分(如章节编号、关键词),避免遗漏。

实战示例:处理10万字的《企业年度报告》问答

from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains.summarize import load_summarize_chain

# 1. 拆分长文档(每段1000字)
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
docs = text_splitter.split_text(long_document)

# 2. 总结每个章节的核心内容(上下文压缩)
summary_chain = load_summarize_chain(llm, chain_type="map_reduce")
chapter_summaries = summary_chain.run(docs)

# 3. 设计提示:用锚点引导模型关注关键信息
prompt = f"""
你需要回答关于《企业年度报告》的问题,首先看以下章节摘要:
{chapter_summaries}

然后,根据摘要中的信息回答用户问题:{user_query}。要求:
1. 引用具体的章节编号(如“根据第3章‘财务状况’”);
2. 只回答摘要中提到的内容,不要猜测;
3. 语言简洁,不超过200字。
"""

# 4. 生成回答
response = llm(prompt)
print(response)

效果:处理10万字文档的问答准确率从40%提升到75%,且回答更具可信度(因为引用了章节编号)。

3.2 场景2:跨领域推理(用法律知识解决医疗问题)

挑战:模型容易混淆不同领域的知识(如把法律的“告知义务”和医疗的“知情同意”搞混),导致回答错误。

核心策略领域边界明确+知识锚定

  • 领域边界明确:在提示中明确区分不同领域的知识(如“法律依据”“医疗实践”);
  • 知识锚定:要求模型引用具体的领域规则(如法律条款、医疗规范),避免“信口开河”。

实战示例:跨法律与医疗的“手术知情同意”问题

你需要解决一个跨领域问题:患者因医生未告知手术风险而起诉,请问法律上的“告知义务”是什么?医疗实践中如何执行?

请按照以下结构回答:
1. 法律依据:引用具体的法律条款(如《民法典》);
2. 医疗规范:说明医院的具体操作流程(如术前谈话、知情同意书);
3. 结论:结合两者说明医生是否违反义务。

用户问题:“医生没告诉我手术会留疤,我能起诉吗?”

AI回答

  1. 法律依据:根据《民法典》第1219条,医务人员在诊疗活动中应当向患者说明病情和医疗措施。需要实施手术、特殊检查、特殊治疗的,医务人员应当及时向患者具体说明医疗风险、替代医疗方案等情况,并取得其明确同意;
  2. 医疗规范:医院通常会在术前进行谈话,将手术风险(如疤痕、感染)写入《手术知情同意书》,由患者签字确认;
  3. 结论:如果医生未告知“留疤”这一风险,且未写入知情同意书,可能违反法律规定的“告知义务”,患者可以起诉。

关键:通过“结构强制”让模型分开处理不同领域的知识,避免混淆。

3.3 场景3:动态任务适配(对话中根据历史调整回答)

挑战:在多轮对话中,AI容易“忘记”之前的对话内容,导致回答不一致(比如用户先问“退款流程”,再问“退款到账时间”,AI可能重复解释流程)。

核心策略对话历史压缩+意图关联

  • 对话历史压缩:将之前的对话总结为“关键信息点”(如“用户已了解退款流程,现在问到账时间”);
  • 意图关联:在提示中引导模型关联历史意图,避免重复回答。

实战示例:多轮对话的提示设计

from langchain.memory import ConversationSummaryBufferMemory

# 1. 初始化对话记忆(压缩历史对话)
memory = ConversationSummaryBufferMemory(llm=llm, max_token_limit=500)

# 2. 处理第一轮对话
user_query1 = "如何申请退款?"
memory.save_context({"input": user_query1}, {"output": "退款流程是:APP→我的订单→申请退款"})

# 3. 处理第二轮对话
user_query2 = "退款多久到账?"
# 从记忆中获取压缩后的历史
history = memory.load_memory_variables({})["history"]

# 4. 设计提示:关联历史意图
prompt = f"""
对话历史:{history}
用户当前问题:{user_query2}

请回答当前问题,要求:
1. 不要重复历史中已经回答过的内容(如退款流程);
2. 直接回答当前问题的核心(如到账时间);
3. 语言简洁。
"""

# 5. 生成回答
response = llm(prompt)
print(response)  # 输出:“退款通常在审核通过后1-3个工作日到账,具体以银行到账时间为准。”

效果:多轮对话的一致性从55%提升到80%,用户体验明显改善。

3.4 场景4:低资源场景(小语种或专业领域数据少)

挑战:小语种(如越南语、泰语)或专业领域(如量子计算)的训练数据少,模型的理解和生成能力弱。

核心策略知识注入+示例引导

  • 知识注入:在提示中直接提供该领域的基础规则(如小语种的语法、专业领域的术语);
  • 示例引导:给出“输入-输出”的示例,让模型学习正确的回答方式。

实战示例:越南语客服的提示设计(低资源场景)

你是越南语电商客服,需要回答用户的问题。首先学习以下知识:
1. 越南语中“退款”是“Hoàn tiền”,“订单”是“Đơn hàng”;
2. 退款流程:Đăng nhập APP → Đơn hàng của tôi → Yêu cầu hoàn tiền(登录APP→我的订单→申请退款)。

然后,根据以下示例回答用户问题:
示例1:用户问“Làm thế nào để hoàn tiền?”(如何退款?)→ 回答:“Bạn vui lòng đăng nhập APP, vào Đơn hàng của tôi và chọn Yêu cầu hoàn tiền.”
示例2:用户问“Tôi muốn hoàn tiền đơn hàng của mình.”(我想退我的订单。)→ 回答:“Vui lòng truy cập Đơn hàng của tôi trong APP để yêu cầu hoàn tiền.”

现在回答用户问题:“Tôi không biết cách hoàn tiền đơn hàng.”(我不知道怎么退订单。)

AI回答:“Bạn vui lòng đăng nhập APP, vào Đơn hàng của tôi và chọn Yêu cầu hoàn tiền.”(符合示例的格式和知识)

关键:通过“知识+示例”,让模型在低资源场景下快速学习正确的回答方式,避免“胡言乱语”。

3.5 场景5:多角色协同(模拟团队讨论生成方案)

挑战:复杂问题需要多个角色的专业知识(如产品经理、工程师、设计师),但AI通常只能模拟单一角色。

核心策略角色分工+迭代优化

  • 角色分工:在提示中明确每个角色的职责(如“产品经理负责需求定义,工程师负责技术实现”);
  • 迭代优化:让AI先模拟每个角色提出方案,再整合优化成最终结果。

实战示例:设计一个电商促销活动的提示

你需要模拟一个团队(产品经理、工程师、设计师)来设计电商促销活动,流程如下:
1. 产品经理:定义活动目标(如提升GMV 20%)、活动规则(如满200减30);
2. 工程师:评估技术可行性(如优惠券系统能否支持大规模发放);
3. 设计师:提出视觉设计方案(如红色主色调、倒计时组件);
4. 整合优化:根据各角色的输出,生成最终的活动方案。

现在开始:
首先,产品经理提出活动目标和规则;
然后,工程师评估可行性;
接着,设计师提出视觉方案;
最后,整合所有信息生成最终方案。

AI输出

产品经理方案:活动目标是提升Q3 GMV 20%,活动规则为“满200减30”“新用户首单额外减50”;
工程师评估:优惠券系统支持大规模发放,但需要提前扩容服务器,避免峰值卡顿;
设计师方案:视觉主色调为红色(符合促销氛围),添加倒计时组件(营造紧迫感),首页 banner 突出“满减”和“新用户福利”;
最终方案:活动时间为2024年9月1日-9月10日,规则为“满200减30”“新用户首单减50”;技术上提前扩容服务器,确保优惠券发放顺畅;视觉上用红色主色调,首页添加倒计时和福利弹窗。

价值:通过模拟多角色协同,让AI生成的方案更全面、更贴近实际业务需求。

四、实战案例:企业级智能知识库系统的提示架构设计

讲了这么多策略,我们用一个企业级智能知识库系统的案例,把所有知识串起来。

4.1 项目背景

某大型制造企业有10万+份内部文档(如产品手册、维修指南、政策制度),员工经常找不到需要的信息,HR每天要处理200+个重复问题(如“产假怎么申请?”“设备维修流程是什么?”)。

目标:设计一个智能知识库系统,让员工通过自然语言提问,快速获取准确、符合企业风格的回答。

4.2 提示架构设计

基于之前的“三层模型”和“模块化思维”,我们设计了以下提示架构:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

1. 用户层:意图识别与需求澄清

目标:把员工的模糊问题转化为明确的意图(如“政策制度-产假申请”“操作流程-设备维修”)。

提示设计

你是企业知识库的意图识别助手,需要判断员工问题的类型。类型包括:
- 政策制度(如产假、社保)
- 操作流程(如设备维修、订单审批)
- 产品知识(如产品参数、使用方法)
- 其他(如投诉、建议)

请仅输出类型,不要解释。员工问题:{user_query}
2. 任务层:知识检索与信息提取

目标:根据意图从知识库中检索相关文档,并提取核心信息(如“产假申请需要提交的材料”“设备维修的步骤”)。

提示设计

你需要从以下文档中提取与员工问题相关的核心信息:
文档:{retrieved_documents}
员工问题:{user_query}

提取要求:
1. 只提取与问题直接相关的内容;
2. 引用文档的名称和章节(如《员工手册》第5.3节);
3. 每个要点不超过50字。
3. 模型层:回答生成与风格校准

目标:基于提取的信息生成回答,调整语气符合企业的“专业、简洁”风格。

回答生成提示

你是企业知识库的智能助手,需要回答员工的问题。请根据以下信息:
核心信息:{extracted_info}
员工问题:{user_query}

回答要求:
1. 准确引用文档中的内容(如“根据《员工手册》第5.3节”);
2. 语言专业、简洁,避免口语化;
3. 长度不超过300字。

风格校准提示

检查以下回答是否符合企业风格:
1. 避免口语化词汇(如“哦”“呀”“没问题”);
2. 使用“本公司”“请参考”“请按照”等专业词汇;
3. 结构清晰,用序号列出步骤(如有)。

调整不符合的部分:{raw_answer}
4. 反馈层:用户评价与提示迭代

目标:收集员工对回答的评价,迭代优化提示。

反馈收集提示

请对本次回答进行评价:
1. 准确:回答是否符合你的需求?(是/否)
2. 清晰:语言是否简洁易懂?(是/否)
3. 专业:风格是否符合企业要求?(是/否)
4. 建议:你希望回答改进的地方?

4.3 效果评估

系统上线后,我们统计了3个月的数据:

  • 员工问题解决率从55%提升到82%;
  • HR的重复问题处理量减少了70%;
  • 员工对回答的满意度评分从3.2分(5分制)提升到4.5分。

五、最佳实践与避坑指南

最后,总结10条架构师的提示设计“金科玉律”,帮你避开90%的坑:

5.1 最佳实践

  1. 提示结构:前置条件+核心任务+输出要求(如“假设你是资深工程师→解决微服务熔断问题→输出步骤和配置”);
  2. 用“示例”代替“解释”(模型更擅长学习“输入-输出”示例,而不是抽象的规则);
  3. 控制提示长度(不要超过模型上下文窗口的50%,避免模型“遗忘”);
  4. 利用“思维链(CoT)”解决复杂推理(如“先分析问题→再列出可能的解决方案→最后选择最优”);
  5. 针对不同模型调整提示(比如Claude适合长上下文,提示可以更详细;GPT-4适合复杂推理,提示可以更开放)。

5.2 避坑指南

  1. 不要让AI“猜”(模糊的提示会导致模糊的回答,比如不要说“帮我写个报告”,要说“帮我写一篇关于Q3销售业绩的报告,受众是管理层,长度2000字,包含数据图表”);
  2. 不要包含矛盾的要求(比如“要详细又要简洁”“要专业又要口语化”,模型无法处理矛盾);
  3. 不要忽略模型的局限性(比如不要让GPT-3.5处理10万字文档,要用Claude 3);
  4. 不要跳过测试(上线前一定要测试不同场景的效果,比如极端问题、模糊问题);
  5. 不要“一次成型”(提示需要不断迭代,没有“完美的提示”,只有“更适配的提示”)。

六、结论:提示工程的本质是“系统与AI的对话艺术”

回到文章开头的问题:“为什么复杂场景下提示设计不好用?”

答案是:因为你还在用“写指令”的思维设计提示,而不是“设计系统交互”的思维

对于架构师而言,提示工程的进阶不是“学更多技巧”,而是“用系统思维重新定义提示”——将模糊的需求转化为结构化的流程,将零散的提示转化为可复用的模块,将经验试错转化为反馈闭环。

当你用这样的思维去设计提示时,你会发现:AI不再是“黑箱”,而是能精准配合业务的“伙伴”——它能听懂你的需求,遵守你的规则,甚至能通过反馈不断进化。

七、行动号召:从今天开始,做“系统级提示设计师”

最后,我想给你一个小挑战:

  1. 找出你当前项目中“效果不好的提示”;
  2. 用“三层模型”拆解它(用户层→任务层→模型层);
  3. 用“模块化思维”重构它;
  4. 收集用户反馈,迭代优化。

如果你完成了这个挑战,欢迎在评论区分享你的经验——我们一起讨论,一起进步。

八、附加部分

8.1 参考文献

  • OpenAI Prompt Engineering Guide: https://platform.openai.com/docs/guides/prompt-engineering
  • LangChain Documentation: https://python.langchain.com/docs/
  • 《思维链提示:让AI学会思考》(论文): https://arxiv.org/abs/2201.11903
  • 《多模态提示工程:文本与图像的协同》(博客): https://lilianweng.github.io/posts/2023-06-23-multimodal/

8.2 作者简介

我是李阳,一名拥有10年经验的软件架构师,专注于AI与企业系统的融合。曾主导过5个以上企业级AI系统的设计(如智能客服、知识库、供应链预测),擅长用系统思维解决复杂问题。我的公众号“架构师的AI笔记”分享AI架构、提示工程、大模型应用的实战经验,欢迎关注。

感谢阅读! 如果你有任何问题或想法,欢迎在评论区留言——我会一一回复。

Logo

纵情码海钱塘涌,杭州开发者创新动! 属于杭州的开发者社区!致力于为杭州地区的开发者提供学习、合作和成长的机会;同时也为企业交流招聘提供舞台!

更多推荐