logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型安全(十七):模型验证与测试之自动化红队测试基准 (Red Teaming Benchmarks)

本文将介绍主流的LLM安全评估框架(如Garak, AdvGLUE),并使用Python构建一个轻量级的自动化红队测试引擎。该引擎包含三个核心组件:攻击生成器(Generator)负责加载越狱(Jailbreak)和注入(Injection)载荷;目标适配器(Target Adapter)负责与LLM交互;评估裁判(Judge)负责利用规则匹配或“以模评模(LLM-as-a-Judge)”技术判定

#安全#自动化#算法
大模型安全(十七):模型验证与测试之自动化红队测试基准 (Red Teaming Benchmarks)

本文将介绍主流的LLM安全评估框架(如Garak, AdvGLUE),并使用Python构建一个轻量级的自动化红队测试引擎。该引擎包含三个核心组件:攻击生成器(Generator)负责加载越狱(Jailbreak)和注入(Injection)载荷;目标适配器(Target Adapter)负责与LLM交互;评估裁判(Judge)负责利用规则匹配或“以模评模(LLM-as-a-Judge)”技术判定

#安全#自动化#算法
大模型安全(一):大模型安全定义与范畴 (模型、应用、数据)

本文介绍了大模型安全(LLM Security)的三大核心范畴:模型安全、应用安全和数据安全。模型安全关注算法层面的完整性、保密性和可用性风险,如数据投毒、模型窃取等;应用安全涉及交互层面的威胁,如提示注入、恶意使用等;数据安全则聚焦隐私保护,防止训练数据泄露和隐私提取。三者共同构成大模型安全的新战场,需要综合防护策略应对AI时代的安全挑战。

#安全#人工智能#网络
大模型安全(一):大模型安全定义与范畴 (模型、应用、数据)

本文介绍了大模型安全(LLM Security)的三大核心范畴:模型安全、应用安全和数据安全。模型安全关注算法层面的完整性、保密性和可用性风险,如数据投毒、模型窃取等;应用安全涉及交互层面的威胁,如提示注入、恶意使用等;数据安全则聚焦隐私保护,防止训练数据泄露和隐私提取。三者共同构成大模型安全的新战场,需要综合防护策略应对AI时代的安全挑战。

#安全#人工智能#网络
Google Antigravity 实战指南:从零打造你的第一个 Agentic 应用

Google Antigravity 不仅仅是一个编辑器,它是一个“反重力”的开发平台,旨在消除编码中的阻力。它集成了 Google 最新的 Gemini 3 Pro 模型,具备全栈自主权(Full-Stack Autonomy)。

Python安全开发学习之路(五十四):自动化渗透测试框架之结果分析与可视化

本文探讨如何通过数据可视化技术改善自动化安全扫描结果的分析体验。文章提出双管齐下的解决方案:一方面使用Python的rich库优化命令行输出,将原始数据转化为色彩丰富、结构清晰的表格;另一方面基于Flask框架和Chart.js构建Web仪表盘,通过饼图等图表直观展示漏洞分布情况。这两种方法共同解决了自动化扫描产生的信息过载问题,将原始数据转化为可快速决策的安全洞见,显著提升了安全分析效率。文章详

#python#安全#学习
Google Antigravity 实战指南:从零打造你的第一个 Agentic 应用

Google Antigravity 不仅仅是一个编辑器,它是一个“反重力”的开发平台,旨在消除编码中的阻力。它集成了 Google 最新的 Gemini 3 Pro 模型,具备全栈自主权(Full-Stack Autonomy)。

Google Antigravity 实战指南:从零打造你的第一个 Agentic 应用

Google Antigravity 不仅仅是一个编辑器,它是一个“反重力”的开发平台,旨在消除编码中的阻力。它集成了 Google 最新的 Gemini 3 Pro 模型,具备全栈自主权(Full-Stack Autonomy)。

Google AI Studio 全指南:从入门到精通 Gemini 开发

在生成式 AI 的浪潮中,Google 凭借 Gemini 模型系列强势反击。而对于开发者来说,想要体验、调试并集成 Gemini 模型,最佳的入口并不是 Google Cloud Vertex AI(那是企业级的),而是 Google AI Studio。Google AI Studio 是一个基于 Web 的快速原型设计环境,它允许开发者极速测试 Gemini 模型,并将测试好的 Prompt

#人工智能
Ollama的“信任”之殇:深度剖析路径遍历漏洞 CVE-2024-37032 (RCE风险)

CVE-2024-37032是Ollama(一款开源本地LLM管理工具)中的高危路径遍历漏洞,影响版本0.1.34。攻击者通过伪造模型注册表,在清单文件的digest字段注入路径遍历序列(如../../etc/passwd),诱导Ollama实例读取/写入系统任意文件,可能升级为RCE。漏洞源于modelpath.go未对digest做SHA256格式校验,官方在0.1.34版本通过正则表达式严格

    共 21 条
  • 1
  • 2
  • 3
  • 请选择