logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

GPUHammer:首个针对NVIDIA GPU的Rowhammer攻击技术

相比CPU,GPU具有约4倍的内存延迟和更快的刷新速率,使得传统"锤击"方法失效。团队指出,配备HBM2e显存的A100显卡和RTX 3080设备在测试中未出现位翻转,但这可能源于不同阈值水平或增强的缓解措施而非天然免疫。研究时机尤其关键,因为云服务商正越来越多地提供GPU分时服务,创建了恶意攻击者可能针对其他用户AI模型或GPU内存中敏感数据的多租户环境。该研究强调了AI系统设计中硬件级安全考量

文章图片
#人工智能
NVIDIA修复容器工具包和GPU Operator中的高危容器权限劫持漏洞

NVIDIA发布容器工具包和GPU Operator安全更新,修复两个高危漏洞(CVE-2025-23266和CVE-2025-23267)。这些漏洞可能被利用进行权限提升、数据篡改或拒绝服务攻击,影响HPC、AI/ML等容器化环境。受影响版本包括容器工具包≤1.17.7和GPU Operator≤25.3.0。建议立即升级至容器工具包1.17.8和GPU Operator 25.3.1,或通过禁

文章图片
#人工智能#机器人#windows +2
微软发布技术蓝图:构建防御“间接提示注入”这一隐形攻击的坚固防线

微软推出纵深防御策略应对大型语言模型(LLM)的间接提示注入攻击,包含三大核心防护机制:1)采用"聚光"技术区分合法指令与恶意内容;2)部署"提示防护盾"检测系统集成Defender平台;3)实施数据外泄拦截机制与"人在回路"授权模式。该方案结合预防、检测和缓解措施,通过技术创新保障企业AI应用安全,使微软保持AI安全领域领先优势。(14

文章图片
#microsoft
Asana MCP AI 连接器漏洞可能泄露企业数据

摘要:Asana的ModelContextProtocol(MCP)服务器近日曝出安全漏洞,可能导致用户数据意外暴露。该协议由Anthropic开发,旨在连接AI助手与数据系统,但安全专家指出其设计存在访问控制缺陷。网络安全专家建议企业立即审查日志,限制数据访问范围,并考虑更安全的RAG方案替代MCP。Upguard提出四项安全建议,强调最小权限原则和操作日志记录的重要性。专家警告MCP协议尚不成

文章图片
#人工智能
Asana MCP AI 连接器漏洞可能泄露企业数据

摘要:Asana的ModelContextProtocol(MCP)服务器近日曝出安全漏洞,可能导致用户数据意外暴露。该协议由Anthropic开发,旨在连接AI助手与数据系统,但安全专家指出其设计存在访问控制缺陷。网络安全专家建议企业立即审查日志,限制数据访问范围,并考虑更安全的RAG方案替代MCP。Upguard提出四项安全建议,强调最小权限原则和操作日志记录的重要性。专家警告MCP协议尚不成

文章图片
#人工智能
MCP SDK安全深度审计报告:揭示跨语言实现中的共性安全威胁与成熟度差异

优势所有语言实现都采用了类型安全的序列化措施;避免了使用不安全的原生序列化机制;实现了基本的输入验证和错误处理;使用各自语言特性增强安全性。劣势传输层安全实施不一致;缺乏统一的认证授权机制;资源管理和限制不够完善;安全配置分散,缺少最佳实践指导;各个语言的实现缺少统一指导。

#安全#ubuntu#linux
MCP SDK安全深度审计报告:揭示跨语言实现中的共性安全威胁与成熟度差异

优势所有语言实现都采用了类型安全的序列化措施;避免了使用不安全的原生序列化机制;实现了基本的输入验证和错误处理;使用各自语言特性增强安全性。劣势传输层安全实施不一致;缺乏统一的认证授权机制;资源管理和限制不够完善;安全配置分散,缺少最佳实践指导;各个语言的实现缺少统一指导。

#安全#ubuntu#linux
NVIDIA AI框架安全警报:Megatron-LM双重注入漏洞与AI安全威胁全景分析

【AI基础设施安全警报】NVIDIA修复Megatron-LM框架双重注入漏洞,影响v0.12.1及更早版本,揭示AI训练系统安全风险。同时,XLab发现针对ComfyUI框架的大规模攻击,Pickai后门程序已感染全球近700台服务器。该恶意软件采用多层持久化、C2轮换等高级技术,清除难度极高,并通过供应链渠道(如Rubick.ai平台)扩散。安全建议包括立即升级框架版本、部署沙箱隔离及建立AI

文章图片
#c++#人工智能#服务器
AI安全新危机:“回音室“越狱技术破解OpenAI、谷歌大模型防护全解析

摘要:研究人员发现新型"回音室"越狱技术,可绕过主流大语言模型(如OpenAI GPT、Google Gemini)的安全防护。该技术通过多轮渐进式诱导、上下文污染等手段,成功率高达90%,显著暴露AI安全机制的根本缺陷。行业已启动防护升级,但专家指出这反映了AI安全设计深层矛盾,需协同技术创新、伦理规范和政策引导构建可信生态系统。

文章图片
#网络#安全#人工智能
AI安全新危机:“回音室“越狱技术破解OpenAI、谷歌大模型防护全解析

摘要:研究人员发现新型"回音室"越狱技术,可绕过主流大语言模型(如OpenAI GPT、Google Gemini)的安全防护。该技术通过多轮渐进式诱导、上下文污染等手段,成功率高达90%,显著暴露AI安全机制的根本缺陷。行业已启动防护升级,但专家指出这反映了AI安全设计深层矛盾,需协同技术创新、伦理规范和政策引导构建可信生态系统。

文章图片
#网络#安全#人工智能
    共 79 条
  • 1
  • 2
  • 3
  • 8
  • 请选择