
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
相比CPU,GPU具有约4倍的内存延迟和更快的刷新速率,使得传统"锤击"方法失效。团队指出,配备HBM2e显存的A100显卡和RTX 3080设备在测试中未出现位翻转,但这可能源于不同阈值水平或增强的缓解措施而非天然免疫。研究时机尤其关键,因为云服务商正越来越多地提供GPU分时服务,创建了恶意攻击者可能针对其他用户AI模型或GPU内存中敏感数据的多租户环境。该研究强调了AI系统设计中硬件级安全考量

NVIDIA发布容器工具包和GPU Operator安全更新,修复两个高危漏洞(CVE-2025-23266和CVE-2025-23267)。这些漏洞可能被利用进行权限提升、数据篡改或拒绝服务攻击,影响HPC、AI/ML等容器化环境。受影响版本包括容器工具包≤1.17.7和GPU Operator≤25.3.0。建议立即升级至容器工具包1.17.8和GPU Operator 25.3.1,或通过禁

微软推出纵深防御策略应对大型语言模型(LLM)的间接提示注入攻击,包含三大核心防护机制:1)采用"聚光"技术区分合法指令与恶意内容;2)部署"提示防护盾"检测系统集成Defender平台;3)实施数据外泄拦截机制与"人在回路"授权模式。该方案结合预防、检测和缓解措施,通过技术创新保障企业AI应用安全,使微软保持AI安全领域领先优势。(14

摘要:Asana的ModelContextProtocol(MCP)服务器近日曝出安全漏洞,可能导致用户数据意外暴露。该协议由Anthropic开发,旨在连接AI助手与数据系统,但安全专家指出其设计存在访问控制缺陷。网络安全专家建议企业立即审查日志,限制数据访问范围,并考虑更安全的RAG方案替代MCP。Upguard提出四项安全建议,强调最小权限原则和操作日志记录的重要性。专家警告MCP协议尚不成

摘要:Asana的ModelContextProtocol(MCP)服务器近日曝出安全漏洞,可能导致用户数据意外暴露。该协议由Anthropic开发,旨在连接AI助手与数据系统,但安全专家指出其设计存在访问控制缺陷。网络安全专家建议企业立即审查日志,限制数据访问范围,并考虑更安全的RAG方案替代MCP。Upguard提出四项安全建议,强调最小权限原则和操作日志记录的重要性。专家警告MCP协议尚不成

优势所有语言实现都采用了类型安全的序列化措施;避免了使用不安全的原生序列化机制;实现了基本的输入验证和错误处理;使用各自语言特性增强安全性。劣势传输层安全实施不一致;缺乏统一的认证授权机制;资源管理和限制不够完善;安全配置分散,缺少最佳实践指导;各个语言的实现缺少统一指导。
优势所有语言实现都采用了类型安全的序列化措施;避免了使用不安全的原生序列化机制;实现了基本的输入验证和错误处理;使用各自语言特性增强安全性。劣势传输层安全实施不一致;缺乏统一的认证授权机制;资源管理和限制不够完善;安全配置分散,缺少最佳实践指导;各个语言的实现缺少统一指导。
【AI基础设施安全警报】NVIDIA修复Megatron-LM框架双重注入漏洞,影响v0.12.1及更早版本,揭示AI训练系统安全风险。同时,XLab发现针对ComfyUI框架的大规模攻击,Pickai后门程序已感染全球近700台服务器。该恶意软件采用多层持久化、C2轮换等高级技术,清除难度极高,并通过供应链渠道(如Rubick.ai平台)扩散。安全建议包括立即升级框架版本、部署沙箱隔离及建立AI

摘要:研究人员发现新型"回音室"越狱技术,可绕过主流大语言模型(如OpenAI GPT、Google Gemini)的安全防护。该技术通过多轮渐进式诱导、上下文污染等手段,成功率高达90%,显著暴露AI安全机制的根本缺陷。行业已启动防护升级,但专家指出这反映了AI安全设计深层矛盾,需协同技术创新、伦理规范和政策引导构建可信生态系统。

摘要:研究人员发现新型"回音室"越狱技术,可绕过主流大语言模型(如OpenAI GPT、Google Gemini)的安全防护。该技术通过多轮渐进式诱导、上下文污染等手段,成功率高达90%,显著暴露AI安全机制的根本缺陷。行业已启动防护升级,但专家指出这反映了AI安全设计深层矛盾,需协同技术创新、伦理规范和政策引导构建可信生态系统。








