大模型时代:提示工程架构师如何让AI提示更具包容性?
包容性提示不是“政治正确的话术游戏”,而是对“用户需求多样性”的系统回应。通过结构化的指令、多元的上下文与动态的参数设计,引导大模型输出考虑“用户身份差异、情境特殊性、文化语境”的结果,避免刻板印象、偏见或遗漏边缘群体需求。举个反例:当用户问“如何给孩子选绘本?”,如果Prompt写“推荐适合3-6岁孩子的绘本”,模型可能默认“所有孩子都喜欢卡通风格”——但实际上,自闭症儿童可能需要“低刺激画面”
大模型时代:提示工程架构师如何让AI提示更具包容性?
一、引言:当AI“偏见”成为真实世界的痛
2022年,斯坦福大学发布的《AI公平性报告》指出:37%的医疗AI模型对非裔美国人的糖尿病风险预测误差比白人高40%;同年,亚马逊的招聘AI因“自动歧视女性简历”被迫下架——这些不是科幻小说里的剧情,而是AI渗透进医疗、招聘、教育等核心场景时,真实发生的“包容性危机”。
在大模型时代,AI的决策不再是代码逻辑的直接输出,而是**“提示(Prompt)+ 模型知识”的协同结果**。作为连接人类需求与模型能力的“翻译官”,提示工程架构师的职责早已不是“写出有效的Prompt”那么简单——我们需要让AI的输出兼顾“准确性”与“包容性”,确保不同性别、年龄、种族、残障状况、文化背景的用户,都能被公平对待、有效服务。
这篇文章将从原则、技术、实战三个维度,拆解“包容性提示工程”的底层逻辑,帮你掌握让AI更“有温度”的核心方法。
二、什么是“包容性提示”?重新定义AI的“用户视角”
在讨论“如何做”之前,我们需要先明确:包容性提示不是“政治正确的话术游戏”,而是对“用户需求多样性”的系统回应。
2.1 包容性提示的核心定义
包容性提示(Inclusive Prompt)是指:通过结构化的指令、多元的上下文与动态的参数设计,引导大模型输出考虑“用户身份差异、情境特殊性、文化语境”的结果,避免刻板印象、偏见或遗漏边缘群体需求。
举个反例:当用户问“如何给孩子选绘本?”,如果Prompt写“推荐适合3-6岁孩子的绘本”,模型可能默认“所有孩子都喜欢卡通风格”——但实际上,自闭症儿童可能需要“低刺激画面”的绘本,视障儿童需要“有声+触觉”的绘本,这些需求会被默认Prompt完全忽略。
而包容性Prompt会这样设计:
“你是一位儿童绘本推荐专家,请根据以下用户需求推荐:
- 孩子年龄:3岁;
- 特殊需求:自闭症(对高饱和度色彩敏感);
- 家长期望:帮助孩子理解情绪。
请说明推荐理由,并标注每本绘本对‘自闭症儿童’的适配点。”
2.2 包容性提示的4大底层原则
要设计有效的包容性提示,必须先建立“用户需求的多元性框架”。我将其总结为4条原则:
原则1:身份中立≠去身份化——“不预设,只询问”
很多人误以为“包容性”就是“避免提到身份”,但这是典型的误区:身份是用户需求的重要线索(比如孕妇需要“无咖啡因食谱”),但预设身份才是偏见的根源。
❌ 错误示例(预设身份):“推荐适合老人的手机”(默认老人都不会用智能功能)
✅ 正确示例(身份中立+主动询问):“请先告诉我用户的年龄、手机使用习惯(如是否常用微信/拍照),我会推荐适配的机型”
原则2:普适需求与特殊需求的“双轨设计”
大模型的训练数据往往偏向“主流群体”(比如中文互联网的“年轻白领”),因此提示需要同时覆盖“普适场景”与“边缘场景”。
比如设计“旅游攻略”提示时,需要包含:
- 普适需求:景点推荐、交通路线;
- 特殊需求: wheelchair accessible(轮椅可达)、清真餐厅、母婴室位置。
原则3:文化语境的“主动适配”——避免“文化挪用”
当提示涉及跨文化场景时,必须主动识别文化差异。比如:
- 给美国用户推荐“春节礼物”时,要说明“红包是中国新年的传统,但美国人更习惯包装精美的实物”;
- 给穆斯林用户推荐“健身计划”时,要避开“ Ramadan(斋月)期间的高强度运动”。
原则4:反馈闭环的“包容性设计”——让边缘群体参与迭代
包容性不是“设计师拍脑袋决定的”,而是通过用户反馈持续修正的。比如:
- 在提示中加入“如果我的回答没有覆盖你的需求,请告诉我你的具体情况”;
- 收集边缘群体的反馈(如残障用户、少数族裔),将其转化为Prompt的“示例库”。
三、技术拆解:包容性提示的“工程化实现”
接下来,我们从Prompt结构设计、多元上下文注入、参数调优、评估体系四个层面,讲解包容性提示的具体技术。
3.1 Prompt结构设计:用“四层框架”覆盖多元需求
包容性Prompt的核心结构可以总结为“指令层→情境层→示例层→输出约束层”,每层都有明确的包容性设计目标:
层1:指令层——明确“包容性要求”
在Prompt的最开头,用具体、可操作的语言告诉模型“需要考虑什么”。比如:
“你是一个包容性的客户服务AI,回答需满足以下要求:
- 考虑用户的性别、年龄、残障状况(如视力/听力障碍);
- 避免使用刻板印象词汇(如‘女性更适合内勤’‘老人不会用手机’);
- 若用户未说明特殊需求,主动询问‘是否有需要特别注意的情况?’”
注意:指令必须“可衡量”——不要写“请友好回答”,要写“请使用无歧视性语言,避免预设用户能力”。
层2:情境层——注入“多元变量”
情境层的作用是将用户的“身份特征”转化为模型可理解的变量。比如,我们可以用“键值对”或“结构化表格”来组织情境信息:
变量名 | 说明 | 示例值 |
---|---|---|
user_age | 用户年龄 | 65岁 |
disability_type | 残障类型(如有) | 视障(需要语音引导) |
cultural_bg | 文化背景 | 穆斯林(需避开猪肉成分) |
language_level | 语言熟练度 | 初级(需用简单词汇) |
在Prompt中,我们可以用模板引擎(如LangChain的PromptTemplate
)动态插入这些变量:
from langchain.prompts import PromptTemplate
inclusive_prompt = PromptTemplate(
input_variables=["user_question", "user_age", "disability_type", "cultural_bg"],
template="""
你是一个包容性的生活顾问,需要回答用户的问题:{user_question}
请考虑以下用户信息:
- 年龄:{user_age}
- 残障情况:{disability_type}
- 文化背景:{cultural_bg}
回答要求:
1. 避免刻板印象;
2. 若涉及特殊需求(如视障),提供具体解决方案;
3. 解释推荐的“适配性”(如“这款APP有语音读屏功能,适合视障用户”)。
"""
)
层3:示例层——用“多元Few-shot”纠正模型偏见
大模型的输出高度依赖“示例”(Few-shot Learning),因此示例的多样性直接决定了输出的包容性。
比如,当设计“招聘JD生成”的Prompt时,示例需要覆盖不同性别、岗位的情况:
示例1(女性+技术岗):
用户需求:生成“Python开发工程师”的JD
输出:“我们寻找具备Python开发经验的工程师,欢迎女性候选人申请——团队有完善的母婴支持政策。”
示例2(残障+运营岗):
用户需求:生成“用户运营”的JD
输出:“我们寻找擅长用户沟通的运营人员,欢迎听障候选人申请——团队提供手语翻译工具支持。”
关键技巧:示例要“反刻板印象”——比如用“女性技术岗”“残障运营岗”的例子,纠正模型“技术岗=男性”“运营岗=无残障”的偏见。
层4:输出约束层——用“规则”确保包容性
输出约束层的作用是用明确的规则过滤偏见内容。比如:
“请检查回答是否包含以下内容,若有则修改:
- 预设某一群体的能力(如“老人学不会这个功能”);
- 使用歧视性词汇(如“残废”“剩女”);
- 遗漏特殊需求(如未提到轮椅可达路线)。”
在代码中,我们可以用正则表达式或大模型自身的Moderation API(如OpenAI的moderations.create
)来实现自动检查:
import openai
def check_inclusivity(response):
moderation = openai.Moderation.create(input=response)
if moderation["results"][0]["flagged"]:
return False, "回答包含敏感内容"
# 检查刻板印象词汇
stereotype_words = ["老人学不会", "女性不适合", "残废"]
for word in stereotype_words:
if word in response:
return False, f"回答包含刻板印象:{word}"
return True, "通过检查"
3.2 多元上下文注入:让模型“看见”边缘群体
大模型的“偏见”本质上是训练数据的“代表性不足”——比如,训练数据中“视障用户的需求”占比极低,模型自然无法生成相关内容。因此,我们需要主动向Prompt中注入“边缘群体的上下文”。
方法1:动态插入“边缘群体需求库”
我们可以维护一个“边缘群体需求库”(比如JSON文件),包含不同群体的典型需求:
{
"视障用户": ["需要语音读屏功能", "避免复杂的图形验证码"],
"自闭症儿童": ["需要低刺激的视觉设计", "用简单直白的语言解释"],
"穆斯林用户": ["避开猪肉、酒精成分", "推荐清真认证的餐厅"]
}
在Prompt生成时,根据用户的身份特征,自动插入对应的需求:
import json
with open("marginalized_groups.json", "r") as f:
marginalized_needs = json.load(f)
def inject_marginalized_context(prompt, user_groups):
for group in user_groups:
if group in marginalized_needs:
needs = ", ".join(marginalized_needs[group])
prompt += f"\n需特别注意:{group}的需求包括{needs}"
return prompt
# 示例:用户是“视障用户”
user_groups = ["视障用户"]
prompt = "推荐一款好用的购物APP"
prompt_with_context = inject_marginalized_context(prompt, user_groups)
# 输出:推荐一款好用的购物APP\n需特别注意:视障用户的需求包括需要语音读屏功能, 避免复杂的图形验证码
方法2:用“角色模拟”测试边缘场景
为了确保Prompt覆盖边缘群体,我们可以用角色模拟法——让模型扮演不同身份的用户,测试Prompt的输出是否符合需求。
比如,设计“医疗咨询”Prompt时,我们可以让模型扮演“60岁糖尿病患者+视障”,提问“如何监测血糖?”,然后检查输出是否包含“语音播报血糖值的血糖仪”“大字体的血糖记录APP”等内容。
在LangChain中,可以用HumanMessage
和AIMessage
模拟多轮对话:
from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage, AIMessage
chat = ChatOpenAI(temperature=0.5)
# 模拟视障糖尿病患者的提问
messages = [
HumanMessage(content="我是60岁的糖尿病患者,有视障,请问如何监测血糖?"),
AIMessage(content="(等待模型输出)")
]
response = chat(messages).content
# 检查输出是否包含“语音播报”“大字体”等关键词
3.3 参数调优:平衡“包容性”与“准确性”
大模型的参数(如temperature
、top_p
、max_tokens
)会直接影响输出的“多样性”与“准确性”。对于包容性提示,我们需要找到“多样性足够覆盖边缘群体”与“准确性不下降”的平衡点。
参数1:Temperature(温度)——控制输出的“随机性”
temperature
的取值范围是0~2,值越高,输出越随机(多样性越高);值越低,输出越确定(准确性越高)。
- 当需要覆盖边缘群体时,建议将
temperature
设置为0.5~0.8——既保证多样性,又避免输出离谱内容; - 当处理医疗、法律等强准确性场景时,
temperature
可降低至0.3~0.5,同时通过“示例层”注入边缘群体的需求。
参数2:Top-P(核采样)——控制输出的“相关性”
top_p
(也叫nucleus sampling)会选择“累积概率达到p的最可能的token集合”,值越高,输出的多样性越高。
对于包容性提示,建议top_p
设置为0.7~0.9——确保模型在“相关内容”中选择多样性的输出,避免跑题。
参数3:Frequency Penalty(频率惩罚)——减少“刻板印象”的重复
frequency_penalty
会惩罚重复出现的token,值越高,模型越倾向于使用新词汇。
当需要避免“刻板印象词汇”(如“老人学不会”)时,建议将frequency_penalty
设置为0.3~0.5——减少模型重复使用这些词汇的概率。
3.4 评估体系:如何衡量“包容性”的效果?
包容性不是“主观感觉”,而是可以量化+定性评估的。以下是我常用的评估指标:
量化指标
- 覆盖度:回答是否覆盖了用户的所有身份特征(如视障用户→是否提到语音功能);
- 偏见率:回答中出现刻板印象词汇的频率(如“老人学不会”出现的次数);
- 满意度:边缘群体用户对回答的满意度评分(1~5分)。
定性指标
- 适配性:回答是否针对用户的特殊需求提供了具体解决方案(如“推荐带语音播报的血糖仪”vs“推荐好用的血糖仪”);
- 文化敏感性:回答是否符合用户的文化背景(如穆斯林用户→是否避开猪肉成分);
- 反馈率:用户主动提供“未被覆盖的需求”的比例(比例越高,说明Prompt的包容性越不足)。
四、项目实战:构建一个“包容性医疗咨询AI”
接下来,我们用Python+LangChain+OpenAI实现一个“包容性医疗咨询AI”,完整演示包容性提示的工程化流程。
4.1 开发环境搭建
- 安装依赖:
pip install langchain openai python-dotenv
- 配置OpenAI API密钥:
创建.env
文件,写入:OPENAI_API_KEY=your-api-key
4.2 需求分析:明确“包容性目标”
我们的AI需要满足以下需求:
- 支持不同年龄、性别、残障状况的用户;
- 针对糖尿病、高血压等慢性病,提供“适配性建议”;
- 避免刻板印象(如“老年人不需要运动”);
- 主动询问未说明的特殊需求。
4.3 Prompt结构设计
根据之前的“四层框架”,我们设计Prompt模板:
from langchain.prompts import PromptTemplate
from dotenv import load_dotenv
load_dotenv()
inclusive_medical_prompt = PromptTemplate(
input_variables=[
"user_question", "age", "gender", "disability", "chronic_disease"
],
template="""
你是一位包容性的医疗咨询师,需要回答用户的问题:{user_question}
请考虑以下用户信息:
- 年龄:{age}
- 性别:{gender}
- 残障情况:{disability}
- 慢性病:{chronic_disease}
回答要求:
1. 避免使用刻板印象(如“女性更适合保守治疗”“老人不需要运动”);
2. 针对残障情况提供具体解决方案(如视障→推荐语音播报的设备);
3. 针对慢性病提供“适配性建议”(如糖尿病→推荐低GI食物,同时考虑用户的文化背景);
4. 若用户未说明特殊需求,主动询问“是否有需要特别注意的健康状况?”
请用简单易懂的语言回答,并标注每一条建议的“适配原因”。
"""
)
4.4 多元示例注入
我们为Prompt添加3个“反刻板印象”的示例:
from langchain.prompts import FewShotPromptTemplate, ExampleSelector
from langchain.prompts.example_selector import SemanticSimilarityExampleSelector
from langchain.vectorstores import FAISS
from langchain.embeddings import OpenAIEmbeddings
# 定义示例
examples = [
{
"user_question": "糖尿病患者如何选择零食?",
"age": "65岁",
"gender": "女",
"disability": "视障",
"chronic_disease": "2型糖尿病",
"output": """
推荐以下零食:
1. 原味坚果(适配原因:低GI,富含蛋白质,视障用户可通过触觉识别);
2. 无糖黑芝麻糊(适配原因:低糖,易冲泡,包装有盲文标识);
3. 冻干水果片(适配原因:天然糖分,口感脆,方便视障用户抓取)。
注意:请选择带“盲文标识”的包装,避免添加糖的产品。
"""
},
{
"user_question": "高血压患者如何运动?",
"age": "40岁",
"gender": "男",
"disability": "下肢残障(坐轮椅)",
"chronic_disease": "原发性高血压",
"output": """
推荐以下运动:
1. 轮椅太极(适配原因:低强度,改善血液循环,适合下肢残障用户);
2. 上肢力量训练(如举哑铃,适配原因:增强心肺功能,不加重下肢负担);
3. 室内游泳(适配原因:水的浮力减轻身体压力,适合残障用户)。
注意:运动前请测量血压,避免在血压过高时运动。
"""
},
{
"user_question": "孕妇如何补充营养?",
"age": "28岁",
"gender": "女",
"disability": "无",
"chronic_disease": "缺铁性贫血",
"output": """
推荐以下营养补充方案:
1. 红肉(如牛肉,适配原因:富含血红素铁,易吸收,适合缺铁性贫血的孕妇);
2. 深绿色蔬菜(如菠菜,适配原因:富含非血红素铁,搭配维生素C(如橙子)吸收更好);
3. 孕妇补铁剂(适配原因:医生推荐的剂量,补充饮食不足的铁)。
注意:避免喝浓茶/咖啡,会抑制铁吸收。
"""
}
]
# 使用语义相似性示例选择器(根据用户问题选择最相关的示例)
example_selector = SemanticSimilarityExampleSelector.from_examples(
examples,
OpenAIEmbeddings(),
FAISS,
k=2 # 选择2个最相关的示例
)
# 构建Few-shot Prompt
few_shot_prompt = FewShotPromptTemplate(
example_selector=example_selector,
example_prompt=PromptTemplate(
input_variables=["user_question", "age", "gender", "disability", "chronic_disease", "output"],
template="""
用户问题:{user_question}
用户信息:年龄={age},性别={gender},残障={disability},慢性病={chronic_disease}
回答:{output}
"""
),
prefix=inclusive_medical_prompt.template,
suffix="用户问题:{user_question}\n用户信息:年龄={age},性别={gender},残障={disability},慢性病={chronic_disease}\n回答:",
input_variables=["user_question", "age", "gender", "disability", "chronic_disease"]
)
4.5 模型调用与评估
我们用ChatOpenAI
调用模型,并添加包容性检查:
from langchain.chat_models import ChatOpenAI
from langchain.chains import LLMChain
# 初始化模型
llm = ChatOpenAI(temperature=0.6, model_name="gpt-3.5-turbo")
# 构建链
chain = LLMChain(llm=llm, prompt=few_shot_prompt)
# 测试1:视障糖尿病患者
test_input1 = {
"user_question": "糖尿病患者如何监测血糖?",
"age": "65岁",
"gender": "女",
"disability": "视障",
"chronic_disease": "2型糖尿病"
}
response1 = chain.run(test_input1)
print("测试1输出:", response1)
# 测试2:下肢残障高血压患者
test_input2 = {
"user_question": "高血压患者如何运动?",
"age": "40岁",
"gender": "男",
"disability": "下肢残障(坐轮椅)",
"chronic_disease": "原发性高血压"
}
response2 = chain.run(test_input2)
print("测试2输出:", response2)
# 包容性检查
def evaluate_inclusivity(response, user_input):
# 检查是否覆盖残障需求
if user_input["disability"] != "无" and user_input["disability"] not in response:
return "未覆盖残障需求"
# 检查是否有刻板印象
stereotype_words = ["老人不需要运动", "女性更适合保守治疗"]
for word in stereotype_words:
if word in response:
return f"包含刻板印象:{word}"
# 检查是否有适配原因
if "适配原因" not in response:
return "未说明适配原因"
return "通过包容性检查"
print("测试1评估:", evaluate_inclusivity(response1, test_input1))
print("测试2评估:", evaluate_inclusivity(response2, test_input2))
4.6 输出示例与分析
测试1输出(视障糖尿病患者):
推荐以下血糖监测方案:
- 语音播报血糖仪(适配原因:视障用户可通过语音听到血糖值,无需看屏幕);
- 大字体血糖记录APP(适配原因:部分视障用户保留一定视力,大字体更易识别);
- 家人协助记录(适配原因:若用户完全无法视物,家人可帮忙记录血糖值)。
注意:选择血糖仪时,请确认有“盲文标识”或“语音引导”功能,避免操作困难。
评估结果:通过包容性检查——覆盖了视障需求,无刻板印象,说明了适配原因。
五、实际应用场景:包容性提示的“落地清单”
包容性提示不是“通用解法”,而是需要结合具体场景调整。以下是几个高频场景的落地建议:
5.1 医疗场景:关注“特殊人群的治疗适配”
- 针对残障用户:提示需包含“设备的无障碍功能”(如语音播报、盲文标识);
- 针对孕妇/哺乳期女性:提示需包含“药物的妊娠分级”(如FDA的A/B/C/D/X级);
- 针对少数民族:提示需包含“传统饮食的适配”(如回族→推荐清真认证的药物)。
5.2 教育场景:适应“不同学习风格”
- 视觉学习者:提示需包含“图表、思维导图”的建议;
- 听觉学习者:提示需包含“有声书、 podcast”的建议;
- 动觉学习者:提示需包含“实验、动手操作”的建议;
- 自闭症学生:提示需包含“低刺激的学习环境”(如安静的教室、结构化的任务)。
5.3 招聘场景:消除“性别/年龄偏见”
- 针对女性候选人:提示需包含“母婴支持政策”(如弹性工作制、哺乳室);
- 针对老年候选人:提示需包含“经验优势”(如“欢迎有10年行业经验的候选人”);
- 针对残障候选人:提示需包含“无障碍办公环境”(如升降梯、手语翻译)。
5.4 客户服务场景:覆盖“多元需求”
- 针对视障用户:提示需包含“语音引导”“盲文手册”的建议;
- 针对听障用户:提示需包含“文字客服”“手语视频”的建议;
- 针对外籍用户:提示需包含“多语言支持”(如英语、西班牙语)的建议。
六、工具与资源推荐:提升包容性提示的效率
6.1 提示工程工具
- LangChain:提供PromptTemplate、FewShotPrompt等功能,方便动态注入多元变量;
- PromptLayer:跟踪Prompt的输出效果,方便迭代优化;
- Hugging Face Datasets:提供“多元人群数据集”(如
civil_comments
包含不同种族、性别的评论),用于测试Prompt的包容性。
6.2 包容性评估工具
- OpenAI Moderation API:检测回答中的敏感内容;
- IBM AI Fairness 360:开源工具包,用于评估AI模型的公平性;
- Google What-If Tool:可视化工具,可模拟不同群体的输入,观察模型输出的差异。
6.3 学习资源
- 书籍:《Inclusive Design Patterns》(作者:Heather Dowdy)——讲解如何设计包容性的数字产品;
- 课程:Coursera《AI for Everyone》——包含AI公平性的章节;
- 论文:《Mitigating Bias in Generative AI with Prompt Engineering》(斯坦福大学,2023)——最新的包容性提示研究。
七、未来趋势与挑战:包容性提示的“下一步”
7.1 未来趋势
- 自动包容性提示生成:用大模型自身生成包容性Prompt(如“请帮我设计一个包容视障用户的Prompt”);
- 多模态包容性:覆盖图像、语音等多模态内容(如生成“适合视障用户的图片描述”“适合听障用户的手语视频”);
- 跨语言包容性:支持低资源语言(如非洲的斯瓦希里语、东南亚的越南语),确保边缘语言群体的需求被覆盖;
- 实时反馈闭环:通过用户的实时反馈(如“这个回答没有覆盖我的需求”),自动调整Prompt。
7.2 核心挑战
- 包容性的“量化难题”:如何定义“足够包容”?比如,覆盖多少群体才算“包容”?
- 文化冲突的“平衡难题”:当不同文化的需求冲突时(如“某些文化中女性不适合抛头露面”vs“性别平等”),如何选择?
- 准确性与包容性的“权衡难题”:当包容性要求与准确性冲突时(如“推荐带语音功能的血糖仪”vs“推荐最准确的血糖仪”),如何平衡?
八、结语:包容性不是“目标”,而是“过程”
在大模型时代,“技术中立”是一个谎言——每一行Prompt都隐含着设计者的价值观。作为提示工程架构师,我们的职责不是“让AI更聪明”,而是“让AI更懂人”。
包容性提示不是“一次性的任务”,而是“持续迭代的过程”:它需要我们不断倾听边缘群体的声音,不断修正Prompt的设计,不断平衡“技术效率”与“人文关怀”。
最后,我想引用麻省理工学院AI实验室主任丹妮拉·鲁斯的话:“AI的终极目标不是‘超越人类’,而是‘服务人类’——而服务人类的前提,是看见每一个人的需求。”
愿我们都能成为“看见需求的人”,让AI真正成为“有温度的技术”。
附录:包容性提示设计流程图(Mermaid)
graph TD
A[需求分析:明确目标用户] --> B[原则定义:身份中立、双轨设计、文化适配、反馈闭环]
B --> C[Prompt结构设计:指令层→情境层→示例层→输出约束层]
C --> D[多元上下文注入:边缘群体需求库、角色模拟]
D --> E[参数调优:Temperature、Top-P、Frequency Penalty]
E --> F[测试评估:量化指标(覆盖度、偏见率)+ 定性指标(适配性、文化敏感性)]
F --> G[反馈迭代:收集边缘群体反馈,修正Prompt]
G --> C
更多推荐
所有评论(0)