logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

RAG 架构: 利用向量数据库构建企业的安全知识库

当未知的攻击在深夜降临,它能够在几毫秒内,从数百万份浩瀚的情报文档中抽丝剥茧,将附带精准溯源链接的防御指南,直接递交到安全工程师的手中。通过在 Prompt 中强制要求模型输出引用的文档 ID(甚至要求它提取原文的字句段落),架构师可以在前端界面(UI)上实现极佳的交互体验:当大模型输出“该 IP 存在未授权访问漏洞 [ID: doc_2025091_1]”时,用户鼠标悬停在引用标签上,就能立刻弹

#架构#数据库#安全 +4
RAG 架构: 利用向量数据库构建企业的安全知识库

当未知的攻击在深夜降临,它能够在几毫秒内,从数百万份浩瀚的情报文档中抽丝剥茧,将附带精准溯源链接的防御指南,直接递交到安全工程师的手中。通过在 Prompt 中强制要求模型输出引用的文档 ID(甚至要求它提取原文的字句段落),架构师可以在前端界面(UI)上实现极佳的交互体验:当大模型输出“该 IP 存在未授权访问漏洞 [ID: doc_2025091_1]”时,用户鼠标悬停在引用标签上,就能立刻弹

#架构#数据库#安全 +4
本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型

以一个 72B(720 亿参数)的模型为例,如果使用 BF16 精度进行全量微调,不仅需要加载模型权重的 144GB 显存,还需要保存优化器状态(如 AdamW 的动量和方差,通常是 FP32,占用 4 倍显存)、梯度(2 倍显存)以及前向传播的激活值。当这个庞大的“硅基大脑”在你的内网服务器上平稳运转,每秒吞吐着数以千计的枯燥日志,并在代码的汪洋中敏锐地揪出隐匿的 APT 潜伏者时,你会发现所有

#安全#人工智能#机器学习 +3
本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型

以一个 72B(720 亿参数)的模型为例,如果使用 BF16 精度进行全量微调,不仅需要加载模型权重的 144GB 显存,还需要保存优化器状态(如 AdamW 的动量和方差,通常是 FP32,占用 4 倍显存)、梯度(2 倍显存)以及前向传播的激活值。当这个庞大的“硅基大脑”在你的内网服务器上平稳运转,每秒吞吐着数以千计的枯燥日志,并在代码的汪洋中敏锐地揪出隐匿的 APT 潜伏者时,你会发现所有

#安全#人工智能#机器学习 +3
架构设计:安全 AI 产品的全生命周期(MLSecOps)

Google 在 2015 年发表过一篇著名论文《Hidden Technical Debt in Machine Learning Systems》(机器学习系统中的隐蔽技术债),其中有一张经典的图:在一个真实的 ML 系统中,核心的 ML 代码只占中间极小的一个方框,周围被数据收集、特征提取、数据验证、资源管理、监控、服务化基础设施等巨大的方块包围。安全环境是动态变化的。而 MLSecOps

#安全#人工智能#web安全 +4
红队测试:如何对大模型进行系统性的安全红队评估

在这里,我们不再让人类去苦思冥想 Prompt,而是训练一个专门的“攻击者模型(Red LLM)”,让它不知疲倦地向“目标模型(Target LLM)”发起攻击。最令人绝望的是,研究发现,一旦这种后门被植入,无论是额外的对抗训练(Adversarial Training)还是穷追猛打的红队测试,都很难将其彻底清洗掉。在几十轮的对话中,他巧妙地引导模型承认:在某些极端的假设情境下,为了更大的善,制造

#人工智能#安全#运维 +4
护栏工程(Guardrails):如何构建 LLM 的实时内容审计层

但在 LLM 应用开发中,我们面对的是一个黑盒,input == "A" 可能会以 80% 的概率返回 "B",10% 的概率返回 "B+",甚至有 1% 的概率返回一段莫名其妙的代码。设想一下,一个银行的客服 AI 即使在 99.9% 的时间里都是准确的,但只要有一次被诱导输出了用户的账户余额,或者承诺了不存在的高额利息,整个银行的声誉就会崩塌。我们需要从防守者的阵地中走出来,换上攻击者的黑客连

#人工智能#安全#自动化 +4
ubuntu server22.04.3更改语言为中文

2.更改默认语言为中文,修改。

文章图片
#linux#运维#服务器
数据为王——安全数据集的清洗与特征工程

我们将探讨如何从混乱的原始流量(PCAP)、杂乱的日志(Logs)和陈旧的学术数据集(KDD Cup)中,提炼出能够描绘攻击者画像的“黄金特征”。它所定义的“基于时间的流量统计特征”(如过去 2 秒内发往同一目的地的连接数)和“基于主机的流量特征”,至今仍是构建 IDS(入侵检测系统)特征工程的基石。如果你喂给模型的是过度拟合的“温室数据”,它在实验室里可能是个天才,一旦部署到充斥着对抗样本的真实

#安全#人工智能#网络 +4
模型提取:黑盒环境下如何窃取对手的 AI 模型参数

的爆发,未来的模型将不再运行在遥远的云端堡垒,而是直接运行在黑客触手可及的手机芯片上。如果攻击者能够构造一系列精妙的查询 x_1, x_2, ..., x_n 并获得对应的输出,他们就可以通过逆向工程,推导出模型 f(x) 的近似函数 f'(x),甚至在某些情况下完全恢复出原始参数 W。通过这种方法,攻击者就像一个探针,不断探测受害者模型的边界,并沿着边界“生长”出自己的数据集。:对于线性模型,只

#安全#机器学习#人工智能 +4
    共 63 条
  • 1
  • 2
  • 3
  • 7
  • 请选择