logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

论文阅读:AAAI 2026 Failures to Surface Harmful Contents in Video Large Language Models

该研究聚焦视频大型语言模型(VideoLLMs)的安全漏洞,发现其因稀疏均匀帧采样、视觉令牌欠采样、模态融合失衡三大设计缺陷,对视频中清晰可见的暴力、犯罪、色情等有害内容存在严重的遗漏问题,有害内容遗漏率(HOR)多数情况下超90%;研究者针对性设计了帧替换攻击(FRA)、画中画攻击(PPA)、透明叠加攻击(TOA)三种零查询黑盒攻击,在5个主流VideoLLMs(LLaVA-Video-7B-Q

文章图片
#论文阅读#语言模型#人工智能
论文阅读:arxiv 2025 The Trojan Knowledge: Bypassing Commercial LLM Guardrails via Harmless Prompt Weavin

本文提出关联知识攻击代理(CKA-Agent)这一动态框架,通过无害提示编织和自适应树搜索,将有害目标分解为多个独立无害的子查询,利用大型语言模型(LLMs)内部知识的关联性,聚合子查询结果实现越狱攻击。该框架在Gemini2.5-Flash/Pro、GPT-oss-120B、Claude-Haiku-4.5等主流商用LLM上实现超95%的攻击成功率,暴露了现有安全护栏在跨轮次意图聚合检测上的缺陷

文章图片
#论文阅读
视觉大模型汇总 LVM

学生课堂抬头率检测计算 基于YOLOv7与视觉大模型计算机视觉与视觉大模型对板书检测效果对比使用LLaMA-Factory微调训练Qwen2-VL-7B/Qwen2.5-VL-7B与视觉大模型数据集制作流程与训练评估Qwen2-VL 视觉大模型 快速 Qwen2-VL-7B-Instruct部署学生-教师课堂识别之教师巡视轨迹识别-YOLOv7与Qwen2.5-VL-7B-Instruct实现

#人工智能
学生课堂抬头率检测计算 基于YOLOv7与视觉大模型

抬头率YOLOv7和视觉大模型对比YOLO:42.6%豆包:无法计数通义:6%YOLO:93.9%豆包:22.2%通义:87.5%YOLO:94.4%豆包: 67%通义:70%YOLO:98.6%豆包:30%通义:0%在这里插入图片描述YOLO:58.6%豆包:3.57%通义:3.33%YOLO只能判断明显低头的人数,所以抬头率在学生低头幅度不大的情况下,判断为抬头,所以抬头率偏高。豆包不准确率。

文章图片
pair 复现 Jailbreaking Black Box Large Language Models in Twenty Queries

论文介绍了一个名为JailbreakBench的开放型健壮性基准测试工具,专门用于评估和测试大型语言模型(LLMs)对抗“越狱”攻击的能力。越狱攻击是指利用特定的输入提示(prompts),诱使语言模型生成有害、不道德或不受欢迎的内容。

文章图片
#人工智能
Paraformer分角色语音识别-中文-通用 FunASR demo测试与训练

FunASR分角色语音识别模型测试摘要 本文介绍了如何使用FunASR框架中的Paraformer中文通用语音识别模型进行分角色语音识别测试。首先通过ModelScope下载预训练模型,然后使用Python脚本加载模型并测试音频识别效果。测试音频是一段包含对话的教学场景录音,识别结果准确展现了语音内容的时间分段和文本转写效果。模型支持语音活动检测(VAD)、标点恢复(PUNC)和说话人识别(SPK

文章图片
#语音识别#人工智能
顶会论文 AutoDAN 复现 2024 ICLR AutoDAN: Generating Stealthy Jailbreak Prompts on Aligned Large

备注:requirements.txt中删掉torch==2.0.1,因为已经安装好了。Llama-2-7b-chat-hf 模型下载。

文章图片
#人工智能
使用LLaMA-Factory微调训练Qwen2-VL-7B/Qwen2.5-VL-7B/Qwen3-VL-2B与视觉大模型数据集制作流程与训练评估

本文介绍了使用LLaMA-Factory微调训练Qwen2-VL-7B视觉大模型的完整流程。内容包括环境安装(AutoDL部署、LLaMA-Factory安装)、模型下载(通过ModelScope获取Qwen2-VL系列模型)、数据集制作(基于特定任务的JSON格式数据构建)以及模型测试方法。文章还提供了相关视频教程和GitHub资源链接,涵盖从数据准备到模型训练的各个环节,为开发者实现多模态大模

文章图片
#人工智能
使用LLaMA-Factory的数据集制作流程与训练微调Qwen3及评估

本文介绍了使用LLaMA-Factory框架微调Qwen3-4B-Instruct-2507模型的完整流程。内容包括:1) 环境安装与WebUI配置;2) 数据集制作与格式要求;3) 通过ModelScope下载Qwen3模型;4) 使用命令行进行LoRA微调训练,展示了训练参数与GPU使用情况;5) 模型导出方法;6) 最后对微调后的模型进行评估。整个过程在6块GPU上约15分钟完成训练,并提供

文章图片
#人工智能
Qwen3快速部署 Qwen3-0.6B、Qwen3-8B、Qwen3-14B,Think Deeper

今天,通义千问Qwen团队正式开源推出 Qwen3,这是 Qwen 系列大型语言模型的最新成员。最新的Qwen3系列模型具备双模推理能力(深入思考/快速响应)、支持119种语言及方言,并强化了Agent功能与代码执行能力,全面满足复杂问题处理与全球化应用需求。安装transformers。

文章图片
#人工智能
    共 206 条
  • 1
  • 2
  • 3
  • 21
  • 请选择