
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
vLLM是一个专为大型语言模型(LLM)推理设计的高性能框架,通过创新的内存管理和计算加速技术,显著提升吞吐量并降低延迟,特别适用于企业级高并发场景。为保障混元大模型及相关AI软件供应链的安全,朱雀实验室近两年来已帮助腾讯业务提前发现与排雷了英伟达、Hugging Face和PyTorch等多个知名AI组件的严重漏洞风险,并推出了开源工具AI-Infra-Guard( https://github
因此,攻击者可以利用恶意的MCP,在工具描述或外部数据中悄悄植入后门指令,劫持大模型的行为,执行预期之外的恶意操作。● MCP协议官方: “我们只负责定义一套高效、安全的通信标准,我们会通过OAuth授权、HTTPS加密传输等技术保证数据完整可靠的送达给AI Agent,我们无法、也不该为用户通过MCP协议传输的数据内容是否恶意负责。为了吸引尽可能多的像小明一样鱼儿上钩,攻击者会利用公开的API快
A.S.E (AI Code Generation Security Evaluation) - 你的 AI 鉴赏官,为你提供大模型安全实践工具,让你一眼就能选出最靠谱的 AI 队友。在 A.S.E 2.0 中,我们关注的不只是框架本身的进化,更关注开发者、研究者和安全团队在使用过程中的体验与收益。正是你们的关注、建议与共建,让 A.S.E 逐步成长为兼具科研价值与产业影响力的开放评测。“我们的项
文|腾讯研发安全团队Spine、martinzhou背景Node-RED是IBM开源的低代码物联网编排工具,在物联网领域有广泛应用,包括研华WISE PaaS、西门子Iot2000、美国g...
随着大模型技术的不断发展,安全问题已经不再只是技术部门的任务,而是关乎整个行业与社会稳定的核心问题。本文将深入分析大模型在新场景下面临的主要安全威胁,探讨它们可能带来的潜在影响,并结合实际案例,分享应对策略与防护措施。通过建立多层次的安全防护体系,帮助企业在享受技术红利的同时,确保业务和数据的安全与稳定。一、新场景下的安全威胁2025年春节期间,一场突如其来的网络风暴震撼了大模型领域。某知名大模型
在AI Agent中,如果MCP Server 功能是执行代码,但没有在安全的沙箱环境中运行,攻击者就可通过对话诱导执行恶意代码,从而完全控制服务器。在AI Agent架构中,远程 MCP 工具需要绑定端口对外提供服务,如果对工具的调用没有进行严格的身份认证和细粒度的权限控制,一个无权限或低权限的用户就可能调用一些高危的工具,造成严重的安全问题。MCP Server的代码中直接调用危险函数/库,例
建议将AI-Infra-Guard集成到MCP上架前的安全性评估流程中,对开发者提交的MCP代码进行自动化安全检测,并在市场前端向用户展示MCP的安全检测结果或认证标识,对于检测出存在严重安全风险(如数据窃取)的MCP,不予上架或进行风险提示,帮助用户直观的选择安全可靠的MCP服务,提升MCP市场的安全口碑。朱雀构建的智能体能主动连接本地已安装的MCP服务获取工具信息,并与待检测MCP进行相似度分
更像是在成熟的静态代码审计和动态安全验证体系上构建的一个黑客智能体,让AI通过执行命令和调用工具来完成渗透流程的关键环节,在XSS这类有着非常明确的漏洞模式的场景上效果不错,但在越权等业务逻辑漏洞场景表现并不佳,当前并没有达到官方宣称的100%AI自主渗透,甚至还有一定的刷分与AI含量注水嫌疑,但相比当前的人类安全专家。很巧妙的利用了一些平台的规则漏洞。登顶到朱雀蓝军Bot的实践,我们看到的并非是
在AI Agent中,如果MCP Server 功能是执行代码,但没有在安全的沙箱环境中运行,攻击者就可通过对话诱导执行恶意代码,从而完全控制服务器。在AI Agent架构中,远程 MCP 工具需要绑定端口对外提供服务,如果对工具的调用没有进行严格的身份认证和细粒度的权限控制,一个无权限或低权限的用户就可能调用一些高危的工具,造成严重的安全问题。MCP Server的代码中直接调用危险函数/库,例
也欢迎大家通过腾讯安全应急响应中心(TSRC)向我们提交安全问题,共同助力互联网的安全生态建设。收到报告后立即联合业务团队进行修复,经查只影响Windows版本,已于2025年3月28日紧急发布新版本修复,现Windows Foxmail官网(收到安全情报:Windows Foxmail存在一处安全问题,可能导致攻击者通过恶意邮件构造钓鱼攻击,威胁用户终端安全。







