logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

dragonballz_e183-1

It makes you mad that you're in pain”中“it”是形式主语,真正的主语是“that you're in pain”。:crack → /kræk/, “crack” 发 /kræk/ 音,其中 “c” 发 /k/ 音,“r” 发 /r/ 音,“a” 发短元音 /æ/,“ck” 发 /k/ 音。:caged → /keɪdʒd/,“caged”发 /keɪdʒd/

#学习
大模型数据泄露攻击方法解析

大模型在训练过程中会“记忆”大量训练数据,攻击者可通过精心设计的提示词(Prompt)诱导模型输出这些记忆的敏感信息(如个人隐私、商业秘密、未公开文本等),实现数据泄露。常见攻击方法包括直接提示提取、越狱提示提取、CoT与越狱结合的提取和响应验证四类,具体如下:定义:攻击者通过直白的提示词,直接要求模型输出训练数据中的特定内容,利用模型对“明确指令”的服从性实现数据提取。核心原理:大模型的训练目标

#安全#人工智能#安全威胁分析
什么是模型窃取攻击?

模型窃取攻击解析模型窃取攻击是指攻击者通过合法或非法手段,获取目标模型的结构、参数、训练数据特征或推理逻辑,进而复制出功能相似的“克隆模型”,或利用窃取的信息实施进一步攻击(如模型投毒、规避检测)。这类攻击直接威胁模型的知识产权和商业价值,尤其对闭源商业模型构成重大风险。

#安全威胁分析
dragonballz_e004-2

kidnap → /ˈkɪdnæp/, “kidnap” 发 /ˈkɪdnæp/ 音,其中 “k” 发 /k/ 音,“i” 发短元音 /ɪ/,“d” 发 /d/ 音,“n” 发鼻音,“a” 发短元音 /æ/,“p” 发 /p/ 音。:trust → /trʌst/, “trust” 发 /trʌst/ 音,其中 “t” 发 /t/ 音,“r” 发 /r/ 音,“u” 发短元音 /ʌ/,“s” 发

#学习
模型窃取攻击和模型蒸馏有何区别?

维度模型窃取攻击模型蒸馏定义攻击者通过合法或非法手段,逆向复制目标模型的结构、参数或功能,生成“克隆模型”。模型开发者主动将复杂的“教师模型”知识迁移到轻量化的“学生模型”中,实现模型压缩或功能适配。核心目的非法获取模型知识产权、绕过授权使用,或利用克隆模型实施进一步攻击(如寻找漏洞)。优化模型性能(如减小体积、提升推理速度)、降低部署成本,或保留核心能力的同时适配边缘设备。主体与合法性主体为攻击

#安全威胁分析
Cherrystudio的搭建和使用

npm -v10.9.3node -vv22.19.03、聊天助手。

#MCP
dragonballz_e044-2

“work up”意为“使激动;:sor → /sə(r)/, “sor” 发 /sə(r)/ 音,其中 “s” 发 /s/ 音,“o” 发短元音 /ə/,“r” 发 /r/ 音。:bar → /bɑːr/, “bar” 发 /bɑːr/ 音,其中 “b” 发 /b/ 音,“a” 发长元音 /ɑː/,“r” 发 /r/ 音。:mas → /mɑːs/, “mas” 发 /mɑːs/ 音,其中 “m

#学习
大模型安全的合规性要求1之欧盟《人工智能法案》

欧盟《人工智能法案》(AI Act)是全球首部全面规范人工智能的法规,旨在平衡技术创新与风险防控,保护基本权利和民主价值。

#安全#人工智能#安全威胁分析
大模型安全的合规性要求3之国内对大模型安全的合规性要求

我国对大模型安全的合规性要求已形成覆盖全生命周期的监管框架,核心围绕数据安全、算法透明、内容合规、行业适配等维度展开,同时强调技术创新与风险防控的平衡。

#安全#算法#安全威胁分析 +1
大模型成员推理攻击原理解析

摘要:成员推理攻击是通过分析模型输出推断特定样本是否属于训练数据的隐私攻击方式。根据实现方法可分为三类:(1)影子模型攻击:利用同分布数据训练相似模型构建推理规则;(2)指标指导攻击:直接分析输出指标(如置信度)差异;(3)联邦推理攻击:针对联邦学习场景分析参数更新。攻击可能导致医疗、金融等敏感数据泄露。防御措施包括模型正则化、输出扰动、梯度加密等技术,核心是削弱模型对训练数据的记忆效应。

#安全#人工智能#安全威胁分析
    共 92 条
  • 1
  • 2
  • 3
  • 10
  • 请选择