Agentic AI技术伦理的安全审计,提示工程架构师的方法
本文围绕Agentic AI技术伦理的安全审计,为提示工程架构师提供了一套全面的方法。首先介绍了相关的基础概念,使读者理解Agentic AI技术伦理的内涵和安全审计的重要性。接着详细分析了Agentic AI可能面临的技术伦理风险,包括隐私侵犯、算法偏见、责任归属以及安全性与可靠性等方面。针对这些风险,从数据层、算法层和应用层提出了具体的安全审计方法,涵盖了数据收集、存储、使用的审查,算法偏见的
Agentic AI技术伦理的安全审计:提示工程架构师的方法
引言
背景介绍
随着人工智能技术的飞速发展,特别是Agentic AI(具身智能体人工智能)的兴起,它在各个领域展现出了巨大的潜力。Agentic AI系统能够自主感知环境、做出决策并执行行动,从智能客服到自动驾驶,从工业自动化到智能物流,应用范围极为广泛。然而,如同任何强大的技术一样,Agentic AI也带来了一系列复杂的技术伦理问题。这些问题不仅关乎个人隐私、社会公平,甚至可能影响到人类社会的安全与稳定。
例如,在自动驾驶场景中,如果Agentic AI系统因算法偏见而对特定肤色或性别的行人做出错误的决策,这将严重威胁到行人的生命安全,并引发社会公平性的质疑。在智能招聘系统里,若存在基于性别或种族的算法歧视,就会破坏就业市场的公平竞争环境。因此,对Agentic AI进行技术伦理的安全审计变得至关重要。
核心问题
对于提示工程架构师而言,面临的核心问题是如何建立一套有效的方法来对Agentic AI系统进行技术伦理的安全审计。这需要我们深入理解Agentic AI的运行机制,识别可能存在的伦理风险点,并设计出相应的审计流程和指标,确保Agentic AI系统在符合伦理道德的框架内运行。
文章脉络
本文将首先介绍Agentic AI技术伦理的相关基础概念,让读者对其有一个清晰的认识。接着,详细阐述Agentic AI可能面临的技术伦理风险,包括隐私侵犯、算法偏见、责任归属等方面。然后,针对这些风险,为提示工程架构师提供具体的安全审计方法,涵盖从数据层、算法层到应用层的全面审计策略。之后,通过实际案例分析,展示如何将这些审计方法应用于实际项目中。最后,对Agentic AI技术伦理安全审计的未来发展进行展望,并提供相关的延伸阅读资源,帮助读者进一步深入学习。
基础概念
术语解释
- Agentic AI(具身智能体人工智能):指能够像智能体一样自主感知其所处环境,基于环境信息进行推理、决策,并采取行动以实现特定目标的人工智能系统。这类系统通常具有一定程度的自主性、适应性和学习能力。
- 技术伦理:探讨技术在研发、应用过程中所涉及的道德原则和规范,旨在确保技术的发展和使用符合人类的价值观和利益,避免对个人、社会和环境造成负面影响。
- 安全审计:对系统或流程进行全面检查和评估,以确定其是否符合特定的安全标准、法规和最佳实践,发现潜在的安全漏洞和风险,并提出改进建议。
前置知识
- 人工智能基础:提示工程架构师需要对机器学习、深度学习的基本概念有深入理解,包括神经网络结构(如卷积神经网络CNN、循环神经网络RNN及其变体LSTM、GRU等)、模型训练过程(如梯度下降、反向传播算法)、常见的机器学习算法(如决策树、支持向量机等)。这有助于理解Agentic AI系统的算法实现和运行逻辑。
- 数据处理知识:掌握数据收集、清洗、标注、存储和管理的方法。了解不同数据格式、数据质量问题(如缺失值、异常值处理)以及数据隐私保护技术(如加密、差分隐私),因为数据是Agentic AI系统的基础,数据的质量和隐私性直接影响到系统的伦理合规性。
- 伦理学基础:熟悉伦理学的基本理论,如功利主义、义务论、美德伦理学等。这些理论为判断Agentic AI系统的行为是否符合伦理提供了哲学基础。例如,功利主义强调行为的后果应使最大多数人获得最大利益,这可以用于评估Agentic AI系统决策对社会整体福利的影响。
Agentic AI技术伦理风险
隐私侵犯
- 数据收集阶段:Agentic AI系统在收集数据时,可能会过度收集用户信息。例如,一个智能健康监测设备的Agentic AI系统,除了收集必要的健康数据外,还可能收集用户的地理位置、浏览历史等与健康监测无关的信息。此外,数据收集过程可能缺乏明确的用户授权,用户可能在不知情或不完全理解的情况下,其数据被收集和使用。
- 数据存储与传输阶段:如果数据存储和传输过程中的安全措施不到位,黑客可能窃取用户数据,导致隐私泄露。例如,一些物联网设备中的Agentic AI系统,其数据传输采用明文形式,没有进行加密处理,使得数据在传输过程中极易被截获和破解。
- 数据使用阶段:Agentic AI系统可能会将收集到的用户数据用于未经用户同意的目的。比如,原本用于个性化推荐的用户数据,被转卖给第三方广告公司,用于更精准的广告投放,而用户对此毫不知情。
算法偏见
- 训练数据偏见:如果训练数据存在偏差,那么训练出来的Agentic AI系统就会带有偏见。例如,在训练一个面部识别系统时,如果训练数据中白人的样本数量远多于其他种族,那么该系统在识别非白人面孔时可能会出现更高的错误率,导致对不同种族人群的不公平对待。
- 算法设计偏见:算法本身的设计可能存在固有偏见。某些机器学习算法在处理数据时,可能会对某些特征赋予过高的权重,从而导致对特定群体的歧视。例如,在信用评估算法中,如果过度依赖收入水平作为评估指标,而忽视了其他影响信用的因素,可能会对低收入群体产生不公平的评估结果。
- 反馈循环偏见:Agentic AI系统在运行过程中,其决策结果可能会反过来影响后续的数据收集和训练,形成反馈循环偏见。例如,一个招聘系统基于当前的招聘决策结果来收集更多类似的候选人数据进行训练,可能会进一步强化现有的招聘偏见,使得某些群体始终难以获得公平的就业机会。
责任归属
- 决策责任:当Agentic AI系统做出决策并导致不良后果时,很难确定责任归属。例如,在自动驾驶汽车发生事故时,是汽车制造商、算法开发者、数据供应商还是用户应该承担责任?由于Agentic AI系统决策的自主性和复杂性,很难简单地将责任归咎于某一方。
- 行为后果责任:Agentic AI系统的行为可能会对社会产生广泛的影响,而确定谁应该为这些后果负责是一个难题。例如,一个智能投资顾问系统推荐了高风险的投资组合,导致投资者遭受重大损失,此时责任的界定涉及到系统开发者、金融机构以及投资者自身等多个方面。
安全性与可靠性
- 系统故障:Agentic AI系统可能会出现故障,导致其行为不可预测。例如,一个工业机器人的Agentic AI控制系统突然出现故障,可能会对生产线上的工人造成伤害。这种故障可能是由于硬件故障、软件漏洞或算法错误等原因引起的。
- 恶意攻击:Agentic AI系统容易成为恶意攻击的目标。黑客可能通过篡改训练数据、干扰系统通信或注入恶意代码等方式,使Agentic AI系统做出错误的决策。例如,攻击者可能篡改自动驾驶汽车的传感器数据,导致车辆发生事故。
安全审计方法
数据层审计
- 数据收集审计
- 目的:确保数据收集过程符合法律法规和用户隐私政策,避免过度收集和未经授权收集数据。
- 方法:
- 审查数据收集声明:检查Agentic AI系统的数据收集声明,确保其明确说明收集哪些数据、为何收集、如何使用以及数据保留期限等信息。声明应使用通俗易懂的语言,以便用户能够理解。
- 用户授权检查:确认数据收集是否获得用户的明确授权。可以通过检查授权流程是否清晰、用户是否能够方便地撤销授权等方面来进行评估。
- 数据最小化原则审查:评估收集的数据是否遵循数据最小化原则,即只收集实现系统功能所必需的数据。例如,对于一个图像识别系统,只收集与图像识别任务相关的图像特征数据,而不收集图像中的其他无关信息。
- 数据存储与传输审计
- 目的:保障数据在存储和传输过程中的安全性,防止数据泄露。
- 方法:
- 加密技术审查:检查数据在存储和传输过程中是否采用了加密技术。对于敏感数据,如用户的个人身份信息、财务数据等,应采用强加密算法进行加密。可以通过查看系统的技术文档、代码实现或进行安全测试来验证加密的有效性。
- 访问控制审查:评估数据存储系统的访问控制机制是否健全。只有授权人员才能访问数据,并且访问权限应根据用户的角色和职责进行严格划分。例如,开发人员和运维人员对数据的访问权限应有所不同,以防止数据被误操作或恶意获取。
- 传输安全审查:审查数据传输过程中的安全协议,如是否使用了SSL/TLS等安全协议来保护数据在网络传输过程中的完整性和保密性。可以通过抓包分析等技术手段来验证数据传输的安全性。
- 数据使用审计
- 目的:确保数据使用符合用户授权和既定的目的,防止数据滥用。
- 方法:
- 数据使用记录审查:检查系统是否记录了数据的使用情况,包括使用时间、使用人员、使用目的等信息。通过审查这些记录,可以追溯数据的流向,发现是否存在未经授权的数据使用行为。
- 数据共享审查:如果Agentic AI系统涉及数据共享,审查共享的对象、共享的数据内容以及共享的目的是否符合用户授权和法律法规要求。例如,数据共享给第三方合作伙伴时,应确保第三方遵守相同的数据保护标准。
- 匿名化和去标识化审查:对于需要公开使用或共享的数据,检查是否进行了匿名化和去标识化处理,以保护用户的隐私。匿名化和去标识化处理应确保在不泄露用户身份的前提下,数据仍可用于合法的分析和研究目的。
算法层审计
- 训练数据偏见审计
- 目的:检测训练数据中是否存在偏差,避免因训练数据问题导致算法偏见。
- 方法:
- 数据分布分析:对训练数据进行统计分析,查看不同类别数据的分布情况。例如,在图像分类任务中,检查不同类别的图像样本数量是否均衡。如果某一类别的样本数量过少,可能会导致模型对该类别的识别能力较弱,从而产生偏见。
- 敏感属性分析:识别训练数据中是否包含敏感属性(如种族、性别、年龄等),并分析这些敏感属性与目标变量之间的相关性。如果发现敏感属性与目标变量存在不合理的强相关性,可能意味着训练数据存在偏见。例如,在贷款审批的训练数据中,如果发现性别与贷款审批结果存在明显的相关性,而这种相关性并非基于合理的经济因素,那么就可能存在性别偏见。
- 数据采样审查:检查数据采样方法是否合理,是否存在对某些数据的过度采样或欠采样现象。不合理的采样方法可能会导致训练数据的偏差。例如,在不均衡数据集的处理中,如果采用简单随机采样方法,可能会进一步加剧数据的不均衡性,此时可以考虑采用过采样(如SMOTE算法)或欠采样等更合适的方法。
- 算法设计偏见审计
- 目的:评估算法本身是否存在设计上的偏见,确保算法的公平性。
- 方法:
- 算法可解释性分析:采用可解释性技术(如LIME、SHAP等)对算法进行分析,了解算法在做出决策时是如何考虑各个特征的。通过分析算法的决策逻辑,可以发现是否存在对某些特征的不合理权重分配,从而判断是否存在算法设计偏见。例如,在一个信用评估算法中,通过可解释性分析发现算法过度依赖借款人的学历信息,而对其他重要的信用指标(如还款历史)重视不足,这可能导致对低学历人群的不公平评估。
- 公平性指标评估:使用公平性指标(如差异影响比、均等机会差异等)对算法进行量化评估。差异影响比用于衡量不同群体在算法输出结果上的差异,如果差异影响比过大,说明算法可能存在偏见。例如,在招聘算法中,如果女性应聘者通过面试的比例远低于男性应聘者,且差异影响比超过一定阈值,就需要进一步分析算法是否存在性别偏见。
- 对抗测试:通过构造对抗样本对算法进行测试,观察算法在面对特殊输入时的行为。例如,在面部识别算法中,构造一些经过微小扰动的面部图像作为对抗样本,检查算法是否会对特定群体的面部图像产生更高的错误识别率,以此判断算法是否存在偏见。
- 反馈循环偏见审计
- 目的:监测Agentic AI系统在运行过程中是否形成反馈循环偏见,及时发现并纠正潜在的问题。
- 方法:
- 系统动态监测:建立对Agentic AI系统的实时监测机制,跟踪系统的决策结果和数据更新情况。通过分析系统在不同时间点的决策结果和数据变化,观察是否存在因反馈循环导致的偏见加剧现象。例如,在一个智能推荐系统中,监测用户对推荐内容的反馈(如点击、购买等行为),以及推荐系统根据这些反馈调整推荐策略的过程,看是否会出现对某些用户群体的推荐内容越来越局限的情况。
- 模拟实验:在系统开发阶段或定期进行模拟实验,模拟不同的初始条件和运行环境,观察系统在长期运行过程中的行为。通过模拟实验,可以预测系统可能出现的反馈循环偏见问题,并提前采取措施进行预防。例如,在一个交通流量优化的Agentic AI系统中,通过模拟不同的交通流量模式和初始道路条件,观察系统在长期运行过程中是否会对某些区域的交通状况造成不公平的影响。
- 定期审查与调整:定期对Agentic AI系统进行审查,评估系统在运行过程中是否出现了反馈循环偏见。如果发现问题,及时调整系统的算法、数据或运行策略,以纠正偏见。例如,当发现智能招聘系统对某些专业的候选人存在偏见时,可以调整招聘算法的权重或补充更多来自不同专业的候选人数据,以提高招聘的公平性。
应用层审计
- 决策责任审计
- 目的:明确Agentic AI系统在做出决策时的责任归属,确保在出现问题时能够找到相应的责任人。
- 方法:
- 系统文档审查:检查Agentic AI系统的技术文档,查看是否明确记录了系统的决策逻辑、数据来源以及各参与方(如开发者、数据供应商、用户等)在系统决策过程中的角色和责任。清晰的文档有助于在出现问题时快速定位责任。
- 决策日志记录:确保系统记录详细的决策日志,包括决策时间、决策输入、决策结果以及决策所依据的算法和数据等信息。通过分析决策日志,可以追溯决策过程,判断决策是否符合既定的规则和标准,以及确定责任归属。例如,在自动驾驶汽车发生事故后,可以通过分析决策日志,了解车辆的自动驾驶系统在事故发生前的决策过程,判断是算法错误、数据异常还是其他原因导致了事故,从而确定责任方。
- 责任协议审查:审查Agentic AI系统相关方之间签订的责任协议,确保协议明确规定了各方在系统决策和行为后果方面的责任。例如,在智能医疗诊断系统中,医疗设备制造商、软件开发商和医疗机构之间应签订详细的责任协议,明确在诊断错误导致患者损害时各方应承担的责任。
- 行为后果责任审计
- 目的:评估Agentic AI系统的行为对社会产生的影响,并确定相关责任方,保障社会公共利益。
- 方法:
- 社会影响评估:采用社会影响评估方法(如成本 - 效益分析、利益相关者分析等)对Agentic AI系统的行为后果进行评估。分析系统的应用对不同利益相关者(如用户、社会公众、环境等)产生的影响,包括正面影响和负面影响。例如,在评估一个智能能源管理系统时,不仅要考虑其对能源节约的积极作用,还要评估其可能对能源供应商和相关产业工人就业的影响。
- 风险评估与管理:对Agentic AI系统可能产生的风险进行评估,包括风险发生的可能性和影响程度。制定相应的风险应对措施,明确责任主体。例如,对于一个智能电网中的Agentic AI控制系统,评估其因网络攻击导致电网故障的风险,并制定相应的安全防护措施和应急响应预案,明确电网运营商、系统开发商等各方在风险管理中的责任。
- 公众参与和反馈机制:建立公众参与和反馈机制,收集社会公众对Agentic AI系统行为后果的意见和建议。通过公众的参与,可以及时发现系统可能存在的问题,并促使相关方采取措施加以改进。例如,在城市规划中使用的Agentic AI系统,可以通过举办公众听证会、在线问卷调查等方式,收集市民对系统规划方案的意见,以便及时调整方案,保障公众利益。
- 安全性与可靠性审计
- 目的:确保Agentic AI系统在运行过程中的安全性和可靠性,防止系统故障和恶意攻击。
- 方法:
- 故障注入测试:对Agentic AI系统进行故障注入测试,模拟各种可能的故障情况(如硬件故障、软件错误、通信中断等),观察系统的应对能力和恢复能力。例如,在测试一个智能工厂的生产控制系统时,通过人为制造网络延迟、传感器故障等故障场景,检查系统是否能够及时检测到故障并采取相应的措施,如自动切换到备用设备或调整生产计划,以确保生产的连续性和稳定性。
- 安全漏洞扫描:使用专业的安全漏洞扫描工具对Agentic AI系统进行定期扫描,检测系统是否存在安全漏洞。常见的安全漏洞包括SQL注入、跨站脚本攻击(XSS)、代码注入等。对于发现的安全漏洞,及时进行修复,并跟踪修复效果。例如,通过漏洞扫描工具发现智能物联网设备的Agentic AI控制系统存在SQL注入漏洞,开发团队应立即采取措施对漏洞进行修复,并重新进行扫描,确保漏洞已被彻底清除。
- 鲁棒性评估:评估Agentic AI系统的鲁棒性,即系统在面对各种异常输入或复杂环境时的稳定性和适应性。可以通过在不同的环境条件下(如不同的光照、温度、湿度等)对系统进行测试,或者使用大量的异常数据对系统进行训练和测试,观察系统的性能变化。例如,在测试一个户外使用的智能监控摄像头的Agentic AI图像识别系统时,在不同的天气条件(如晴天、雨天、雾天等)下对其进行测试,评估其在复杂环境下的图像识别准确率和稳定性。
案例分析
案例背景
以一个智能招聘系统为例,该系统使用Agentic AI技术来筛选和推荐候选人。系统收集了大量的求职者简历数据,包括个人基本信息、教育背景、工作经历、技能等,同时结合招聘职位的要求,通过机器学习算法对候选人进行匹配和排序,为招聘企业提供推荐名单。
数据层审计情况
- 数据收集审计:审查发现,该系统在收集求职者简历时,要求求职者填写过多的无关信息,如婚姻状况、宗教信仰等,超出了招聘所需的范围。并且,在用户注册时,授权协议使用了复杂的法律术语,普通用户难以理解其含义,存在未经充分授权收集数据的问题。
- 数据存储与传输审计:数据存储采用了简单的数据库管理系统,未对敏感信息(如身份证号码、联系方式)进行加密处理。数据传输过程中,部分接口使用了HTTP协议,未采用SSL/TLS加密,存在数据泄露的风险。
- 数据使用审计:系统将求职者数据共享给了一些合作伙伴,用于市场调研等目的,但并未获得求职者的明确同意,违反了数据使用的授权原则。
算法层审计情况
- 训练数据偏见审计:对训练数据进行分析发现,数据中男性求职者的样本数量远多于女性求职者,且在某些行业(如科技行业),男性求职者的工作经历和技能描述被赋予了更高的权重,导致女性求职者在同等条件下被推荐的概率较低,存在明显的性别偏见。
- 算法设计偏见审计:通过可解释性分析发现,算法在评估候选人时,过度依赖毕业院校这一特征,而对实际工作经验和技能的重视不足。这使得毕业于非知名院校但具备丰富实践经验的候选人在竞争中处于劣势,存在算法设计偏见。
- 反馈循环偏见审计:经过一段时间的运行监测,发现系统根据企业对推荐候选人的反馈(如是否录用)来调整推荐策略。由于部分企业存在固有偏见,倾向于录用某些特定院校或性别的候选人,导致系统在后续的推荐中,对这些“受欢迎”的候选人的推荐频率越来越高,进一步加剧了偏见。
应用层审计情况
- 决策责任审计:系统文档中对决策逻辑的描述较为模糊,未明确指出算法决策、数据质量以及企业需求输入等各方在推荐决策中的具体责任。决策日志记录不完整,缺少关键的决策依据信息,如算法在评估候选人时使用的具体权重参数等,使得在出现推荐失误时难以确定责任归属。
- 行为后果责任审计:对该系统的社会影响评估发现,由于存在性别和院校偏见,导致部分优秀的女性候选人和非知名院校候选人失去了公平的就业机会,影响了就业市场的公平性。同时,未对可能出现的风险(如数据泄露导致求职者隐私曝光)进行充分评估和管理,缺乏相应的风险应对措施。
- 安全性与可靠性审计:在故障注入测试中,发现当系统遇到大量简历数据同时上传的情况时,会出现服务器崩溃的现象,系统的稳定性较差。安全漏洞扫描发现系统存在SQL注入漏洞,容易受到黑客攻击,数据安全性存在隐患。
改进措施与效果
针对审计中发现的问题,采取了以下改进措施:
- 数据层:精简数据收集内容,仅收集与招聘相关的必要信息;重新编写授权协议,使用通俗易懂的语言,并确保用户明确知晓数据的使用目的和范围。对数据存储进行加密处理,采用SSL/TLS协议进行数据传输。同时,停止未经授权的数据共享行为,并向用户说明数据使用情况。
- 算法层:对训练数据进行重新采样,平衡不同性别和院校的样本数量;调整算法设计,降低毕业院校的权重,增加工作经验和技能的权重。建立反馈循环监测机制,定期审查推荐策略,避免因企业反馈偏见导致的推荐偏差。
- 应用层:完善系统文档,明确各方在决策过程中的责任;补充完整决策日志记录,包括详细的决策依据。制定风险应对计划,加强数据安全防护,修复SQL注入漏洞。同时,对系统进行优化,提高其稳定性和可靠性,避免服务器崩溃问题。
经过改进后,再次对该智能招聘系统进行审计,发现数据收集更加规范,数据存储和传输的安全性得到了提升;算法偏见得到了有效纠正,推荐结果更加公平;应用层的决策责任更加明确,风险得到了有效管理,系统的安全性和可靠性也得到了显著提高。
总结与展望
回顾核心观点
本文围绕Agentic AI技术伦理的安全审计,为提示工程架构师提供了一套全面的方法。首先介绍了相关的基础概念,使读者理解Agentic AI技术伦理的内涵和安全审计的重要性。接着详细分析了Agentic AI可能面临的技术伦理风险,包括隐私侵犯、算法偏见、责任归属以及安全性与可靠性等方面。针对这些风险,从数据层、算法层和应用层提出了具体的安全审计方法,涵盖了数据收集、存储、使用的审查,算法偏见的检测与预防,以及应用场景下的责任界定和安全可靠性评估等内容。通过实际案例分析,展示了如何将这些审计方法应用于实践,并取得改进效果。
未来发展
- 技术创新:随着人工智能技术的不断发展,新的技术如联邦学习、多方安全计算等有望为解决Agentic AI的技术伦理问题提供更有效的手段。联邦学习可以在保护数据隐私的前提下进行分布式模型训练,减少数据集中带来的隐私风险;多方安全计算则可以实现数据在加密状态下的计算和分析,进一步保障数据的安全性和隐私性。提示工程架构师需要关注这些新技术的发展,并将其应用于Agentic AI系统的安全审计中。
- 标准与法规完善:目前,针对Agentic AI技术伦理的标准和法规尚在不断完善中。未来,各国和国际组织可能会出台更加严格和详细的标准与法规,规范Agentic AI的开发、应用和审计。提示工程架构师需要密切关注标准与法规的变化,确保Agentic AI系统的安全审计符合最新的要求。
- 跨学科合作:Agentic AI技术伦理涉及到计算机科学、伦理学、法学、社会学等多个学科领域。未来,需要加强跨学科的合作与研究,从不同的视角深入探讨Agentic AI的技术伦理问题,为安全审计提供更全面、深入的理论支持和实践指导。例如,伦理学研究可以为确定Agentic AI系统的道德原则提供依据,法学研究可以为责任归属和法律合规性提供法律框架。
延伸阅读
- 书籍:《人工智能伦理》全面介绍了人工智能技术发展过程中面临的各种伦理问题,并提供了相应的思考和解决方案。《数据隐私工程:构建隐私增强型解决方案》深入探讨了数据隐私保护的技术和方法,对于理解Agentic AI的数据隐私审计具有重要参考价值。
- 学术论文:在IEEE Xplore、ACM Digital Library等学术数据库中,搜索关于“Agentic AI Ethics”“AI Security Auditing”等主题的学术论文,可以获取最新的研究成果和技术进展。例如,一些研究论文提出了新的算法公平性评估指标和审计方法,对提示工程架构师具有启发意义。
- 官方文档与指南:关注国际标准化组织(ISO)、电气和电子工程师协会(IEEE)等组织发布的关于人工智能伦理和安全的标准与指南,如ISO/IEC 27001信息安全管理体系标准、IEEE全球倡议在符合伦理的设计中考虑人工智能和自主性等,这些文档为Agentic AI系统的安全审计提供了权威的参考依据。
更多推荐
所有评论(0)