logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

论文阅读:NeurIPS 2024 Accelerating Greedy Coordinate Gradient and General Prompt Optimization via Probe

这篇文章本质是给大模型安全研究“提效工具”:通过小模型先筛、测默契度再调整筛选力度的方法,让找危险提示词的过程快好几倍,还不牺牲精度。这样研究者能更快探索大模型的安全漏洞,反过来帮大模型变得更安全。不过它也有局限:目前只支持开源模型,而且大数据集上速度还有提升空间。但整体来说,是个能帮安全研究“提速降本”的实用方法。

文章图片
#论文阅读
论文阅读:硕士学位论文 2025 大语言模型越狱与后门攻防研究

论文说白了就是:先摸清大模型的安全弱点(比如看不懂小语种、对代码补全的优先级高于安全审查、第三方服务藏后门),然后针对性设计攻击方法暴露这些弱点,再给出能落地的防御方案——越狱攻击靠“拆段查风险”防,后门攻击靠“用户侧加层安检”防。最终目的是让大模型既能好好干活,又不会被坏人利用。

文章图片
#论文阅读#语言模型#人工智能
论文阅读:硕士学位论文 2025 面向大语言模型的黑盒对抗性攻击与防御关键技术研究

给攻击者提供了新“工具”,能暴露大模型的安全漏洞,帮开发者补短板;给模型加了轻量防御,成本低还管用,能防住大部分越狱攻击;搞了套自动评估方法,不用人工也能准确判断攻防效果。最后还说,未来想让防御更通用(能防新攻击)、能应对图片+文字的多模态攻击,还要把评估做得更自动化。

文章图片
#论文阅读#语言模型#人工智能
pytorch神经网络 训练好的模型保存提取

要点训练好了一个模型, 我们当然想要保存它, 留到下次要用的时候直接提取直接用, 这就是这节的内容啦. 我们用回归的神经网络举例实现保存提取.对整个网络保存我们快速地建造数据, 搭建网络:import torchfrom torch.autograd import Variableimport matplotlib.pyplot as plt#假数据# unsqueeze对数据维...

#神经网络#机器学习#深度学习 +2
论文阅读:arxiv 2024 Judging the Judges: A Systematic Study of Position Bias in LLM-as-a-Judge

AI当裁判时确实会“看位置下菜碟”,但这不是随机的,而是和裁判本身、任务类型、答案质量差距有关。它给我们提了个醒:用AI当裁判时,不能只看“总体评分”,还要查它对不同任务、不同位置的偏见,最好结合多个裁判的意见,尤其是评“质量差不多的答案”时,得特别小心位置带来的误差。

文章图片
#论文阅读
AutoDL中的LLaMA-Factory 使用 训练微调 llame3数据集 cmmlu

我们在autdl上有LLaMA-Factory的镜像,这个镜像用的是Qwen2-7B-Chat,然后我们在Qwen的官网上找到了对应。通过上面的例子,我们知道了模型的选择与下载。打开VPN用迅雷下载。

文章图片
【ava 数据集】训练集和验证集之间的比例

这里简单说一下关于ava数据集的训练集和验证集之间的比例在ava数据集中,训练视频235个,验证视频64个,比例为100:28,也就是说,我们在自己做数据集的时候,尽量按照这个比例来制作下面是代码部分:import csvcsv_file=csv.reader(open('ava_train_v2.2.csv','r'))next(csv_file)name = ''count = 0for li

#python
论文阅读:ACL 2025 LLMs instead of Human Judges? A Large Scale Empirical Study across 20 NLP Evaluation T

最后研究者给了个建议:现在的AI还不能直接拿来当“裁判”用,想用的话,必须先针对具体任务,拿人类标注结果做验证——比如你想用AI评机器翻译,得先确认这个AI在“翻译评估”任务上跟人类一致,才能用,不能随便找个AI就用。这篇文档其实是一项关于“用大语言模型(LLMs)代替人类做评估”的大规模实验研究,核心就是想搞清楚:现在的AI模型(比如GPT-4o、Llama这些)能不能靠谱地替代人类,去判断NL

文章图片
#论文阅读#自然语言处理#人工智能
交叉熵的数学原理及应用——pytorch中的CrossEntropyLoss()函数

交叉熵的数学原理及应用——pytorch中的CrossEntropyLoss函数前言公式推导过程sigmoid前言分类问题中,交叉熵函数是比较常用也是比较基础的损失函数,原来就是了解,但一直搞不懂他是怎么来的?为什么交叉熵能够表征真实样本标签和预测概率之间的差值?趁着这次学习把这些概念系统学习了一下。首先说起交叉熵,脑子里就会出现这个东西随后我们脑子里可能还会出现Sigmoid()这个函...

文章图片
#机器学习#深度学习#人工智能 +2
顶会论文 AutoDAN 复现 2024 ICLR AutoDAN: Generating Stealthy Jailbreak Prompts on Aligned Large

备注:requirements.txt中删掉torch==2.0.1,因为已经安装好了。Llama-2-7b-chat-hf 模型下载。

文章图片
#人工智能
    共 184 条
  • 1
  • 2
  • 3
  • 19
  • 请选择