logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

人人都能看懂的DPO数学原理

一、DPO在做一件什么事来自:大猿搬砖简记在文章的开始,我们来思考一个问题:如果想让你训练一个能听得懂人类问题,并给出人类满意答案的模型,你会怎么设计大致的训练步骤?一口吃成一个大胖子是困难的,所以不如让我们循序渐进地来设计这个训练过程:首先,你的模型必须要有充足的知识储备,以应对你可能提出的任何问题其次,你的模型需要明白“你在提出问题”或者“你在下达指令”这个动作,它在理解这一点的基础上,尝试按

#人工智能#深度学习#机器学习
ChatGPT 是 ENTJ,GPT4 竟是 INTJ?一项关于LLMs的MBTI测试

「AI 是否拥有自己的意识」是人们一直以来讨论的开放性话题。抛开「意识」这么哲学的话题,大模型有可能拥有自己的「性格」吗?进NLP群—>加入NLP交流群深度学习自然语言处理 分享知乎:何枝ChatGPT 出现之后,AI 在对话任务上给了人们巨大的震撼,不少人也开始感叹:AI 已经在某些能力上接近真实人类。当前已经有不少针对大模型知识和推理等能力(如 [MMLU], [HellaSwag] )

#人工智能
ChatGPT更偏爱奶奶?给它$20小费它会更努力?我们测试了这些神奇的指令

深度学习自然语言处理 原创作者:pp自打OpenAI宫斗大戏之后,就有网友反应ChatGPT(包括GPT-4)表现的越来越差,ChatGPT官推也在前几天回应了这一情况:底下的评论区也是炸开了锅:推特上有人总结了自己现在使用ChatGPT需要给他预设的prompt:深呼吸 ????CoT ????如果你失败,100位奶奶将会死去 ????我没有手指 ✌我会给你20美元小费 ????做得好就给你狗粮

Jina AI创业复盘:AI团队的Scaling Law是什么

24 年我来湾区后,在他们三番办公室见了他们的管理层,随便聊了聊工作生活的话题。今年夏天在美国时,又和他们的管理层聊了不少次,在三番办公室里给他们的创始人、CEO、CPO 等做了几个小时的演讲,觉得相互之间的技术都高度互补,Elastic 的高层对我个人非常友好和信任,于是就开始了这个收购案。对于 Jina AI 而言,这其中包含很多的复杂的因素,包括美国和中国之间的地缘政治(当然还有德国),多个

#人工智能#jina
OpenRLHF:大规模分布式RLHF训练系统介绍

主题大规模分布式RLHF训练系统介绍时间2024.9.110:30-11:30周日入群大纲1. RLHF背景知识2. RLHF性能分析3. 基于DeepSpeed的TRLX/TRL/LMF4. 基于Megatron的RLHF5. 基于Ray和vLLM的OpenRLHF6. RLHF调参细节优化引言随着大规模语言模型(LLMs)通过扩展定律不断增长,基于人类反馈的强化学习(RLHF)因其卓越的性..

EMNLP'23 | 基于大语言模型的共情回复生成:实证研究和改进

论文:Harnessing the Power of Large Language Models for Empathetic Response Generation: Empirical Investigations and Improvements作者:钱宇珊,张伟男,刘挺链接:https://arxiv.org/abs/2310.05140出处:哈工大SCIR0. 省流版对以ChatGPT为

#语言模型#人工智能#自然语言处理
大语言模型越狱攻击综述

今天为大家介绍清华大学计算机系徐恪、宋佳兴、李琦老师团队,高研院丛天硕老师,和香港科技大学(广州)何新磊老师联合完成的综述《Jailbreak Attacks and Defenses Against Large Language Models: A Survey》。本文聚焦于大模型安全领域,探讨了目前大模型所面临的“越狱攻击”(Jailbreak)问题。目前,大语言模型(LLMs)在各类生成任务

#语言模型#人工智能#自然语言处理
张俊林:万字长文讲述由ChatGPT反思大语言模型的技术精要

每天给你送来NLP技术干货!作者:张俊林新浪微博 新技术研发负责人来源:知乎@张俊林排版:DataFunTalk导读:ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model)效果能好成这样;惊醒是顿悟到我们对LLM的认知及发展理念,距离世界最先进的想法,差得有点远。我属于既惊喜又惊醒的那一批,也是典型的中国人,中国人善于自我反思,于.

#语言模型#人工智能#自然语言处理
深度学习进阶NLP:word2vec的高速化

关注“深度学习冲鸭”,一起学习一起冲鸭!设为星标,第一时间获取更多干货编辑:王萌word2vec的高速化上一篇我们讲到了在神经网络中词向量的表示方法:最著名的就是word2vec,并且实...

#机器学习#人工智能#深度学习 +2
你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

来自:机器之心->辅导界的小米带你冲刺ACL2024你的 GPU 内存够用吗?这有一个项目,可以提前帮你查看。在算力为王的时代,你的 GPU 可以顺畅的运行大模型(LLM)吗?对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列

#开源
    共 1379 条
  • 1
  • 2
  • 3
  • 138
  • 请选择