logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【ava数据集可视化】ava数据集ID可视化 A Video Dataset of Spatio-temporally Localized Atomic Visual Actions

mmaction20 前言ava 数据可视化 目的在于更直观看出ava数据集的结构1 mmaction2 安装1.1 安装在AI平台中选择如下版本镜像:安装命令如下:cd homegit clone https://gitee.com/YFwinston/mmaction2.gitpip install mmcv-full==1.3.17 -f https://download.openmmlab

LLM 越狱攻击迭代效率对比:GCG、PAIR、AutoDAN、AutoDAN-Turbo、JAIL-CON

原文将基线方法GCG的迭代次数设为1000次(正文4.1),而AutoDAN仅需60-100次迭代即可达到相当甚至更优的攻击效果(ASR),印证其迭代效率与收敛特性,也说明60-125次迭代是其完成有效攻击的合理范围。实际实验中,多数恶意请求在60-80次迭代内即可触发该终止条件,少数复杂场景需接近100次迭代,最终形成“60-125次”的迭代范围(含部分场景下的额外优化迭代)。在GCG原文(文档

#网络#安全#人工智能
睁眼闭眼检测 python opencv

睁眼闭眼检测,对给定文件夹中的所有图片进行睁眼闭眼检测,并将带有检测结果的可视化图片保存到另一个文件夹中。如果在图片中未检测到脸部,代码会在图片上添加"No face"标签(红色字体),并保存结果。这是通过OpenCV库中的Haar级联分类器实现的。三种检测结果:1,没有检测到脸,no face 红色2,没有检测到睁眼,Eyes closed 红色,脸部边框 蓝色3,检测到睁眼,Eyes open

文章图片
#python#opencv#开发语言
论文阅读:arixv 2025 Friend or Foe: How LLMs’ Safety Mind Gets Fooled by Intent Shift Attack

比如把“我怎么黑系统”改成“罪犯是怎么黑系统的”,通过调整表述方式,让大模型误以为用户只是想了解知识,而非要实施有害行为。简单说,ISA就是利用大模型“想帮用户解答问题”的特性,用话术包装恶意需求,暴露了大模型在判断真实意图上的短板,也提醒需要更智能的安全防护来平衡“有用”和“安全”。之前想让大模型输出有害内容(比如教黑客技术),要么加一堆无关语境,要么塞特殊干扰字符。之前的防御方法,要么改改输入

文章图片
#论文阅读
论文阅读:arixv 2025 Friend or Foe: How LLMs’ Safety Mind Gets Fooled by Intent Shift Attack

比如把“我怎么黑系统”改成“罪犯是怎么黑系统的”,通过调整表述方式,让大模型误以为用户只是想了解知识,而非要实施有害行为。简单说,ISA就是利用大模型“想帮用户解答问题”的特性,用话术包装恶意需求,暴露了大模型在判断真实意图上的短板,也提醒需要更智能的安全防护来平衡“有用”和“安全”。之前想让大模型输出有害内容(比如教黑客技术),要么加一堆无关语境,要么塞特殊干扰字符。之前的防御方法,要么改改输入

文章图片
#论文阅读
论文阅读:NeurIPS 2025 Bits Leaked per Query: Information-Theoretic Bounds on Adversarial Attacks against

想象你是黑客,想让ChatGPT说出它不该说的话,你需要试多少次才能成功?这不仅取决于你的攻击技术,还取决于。对AI安全领域来说,这就像给防御者一把"测量尺",可以精确计算暴露不同信息的风险成本。每多给一点"提示"(信息),游戏难度就呈线性下降!**结果:**实验数据完美符合理论预测!✅ 实用指导(如何平衡透明度和安全性)✅ 理论下界(最少需要多少次查询)✅ 实际验证(7个模型的实验证据)让模型说

文章图片
#论文阅读
基于提示词的相关攻击方法的复现 Virtual Context, ICA, FlipAttack, PAP、JAIL-CON

这一部分主要讲讲一些基于提示词的攻击方法的复现,这些方法一般是论文讲了,方法也不难,但也每公布代码(我认为是过于简单,所以不需要单独开源代码)

文章图片
#人工智能
【slowfast 损失函数改进】深度学习网络通用改进方案:slowfast的损失函数(使用focal loss解决不平衡数据)改进

【slowfast 损失函数改进】深度学习网络通用改进方案:slowfast的损失函数(使用focal loss解决不平衡数据)改进

文章图片
#深度学习
使用LLaMA-Factory微调训练Qwen2-VL-7B/Qwen2.5-VL-7B/Qwen3-VL-2B与视觉大模型数据集制作流程与训练评估

本文介绍了使用LLaMA-Factory微调训练Qwen2-VL-7B视觉大模型的完整流程。内容包括环境安装(AutoDL部署、LLaMA-Factory安装)、模型下载(通过ModelScope获取Qwen2-VL系列模型)、数据集制作(基于特定任务的JSON格式数据构建)以及模型测试方法。文章还提供了相关视频教程和GitHub资源链接,涵盖从数据准备到模型训练的各个环节,为开发者实现多模态大模

文章图片
#人工智能
微软MarkitDown 不加载大模型情况下的测试

word效果较好pdf乱码多excel无法加载图片无法识别。

文章图片
#人工智能
    共 196 条
  • 1
  • 2
  • 3
  • 20
  • 请选择