logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

BeyondWeb:大规模预训练合成数据的启示

摘要使用的 prompt:总结以下文本。直接从总结开始。不要说其他任何话。简单摘要与 cosmopedia 的效果近似,且摘要所使用的计算资源远少于 cosmopediaHQ 表示高质量的网络数据,LQ 表示低质量的网络数据。深蓝色的线表示 BeyondWeb(50.4%),深青色的线表示 HQ Synth + HQ Web(49.2%),其中合成数据是高质量网络样本的改写版本,浅青色的线表示 L

#人工智能#深度学习#机器学习 +2
文本生成指标评估--下游准确度,相似度(余弦), 翻译质量(BLEU,ROUGE、ROUGE-N,-L, -W,-S,-SU)/ 多样性(self-bleu,MMD,distinct)

余弦相似度::::忠实度(即生成的数据样本是否接近原始样本)TransRate::::紧凑度(即每个类的样本是否足够紧凑以进行良好区分)生成的样本与label的紧凑度Z为生成的文本embedding, Y 为label"

文章图片
#人工智能#深度学习
通用奖励模型:潜藏于大语言模型内部;LLM不再需要奖励模型?我们已经“预训练“了它!

论文标题: GENERALIST REWARD MODELS: FOUND INSIDE LARGE LANGUAGE MODELS大语言模型(LLM)的对齐高度依赖于昂贵的人类偏好数据训练出的奖励模型。近期研究尝试用 AI 反馈规避这一成本,但缺乏严谨的理论基础。本文发现,任何基于标准“下一个 token 预测”训练的 LLM 内部,已经潜藏了一个强大的通用奖励模型。我们证明,这种内生奖励并非启

#语言模型#人工智能#自然语言处理
中文/英文 文本相似度/文本推理/文本匹配数据集汇总(SNLI、MSRP、MultiNLI、Quora、SciTail、SICK、STS、CCKS2018、LCQMC、OCNLI、XNLI)

https://blog.csdn.net/weixin_43639369/article/details/111699074?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.control&dist_request_id=1328741.39612.16170026

大模型LLM相关面试题整理-PEFT

PEFT(Performance Estimation and Modeling for Fine-Tuning)是一种用于微调任务的性能估计和建模方法。它的目的是帮助研究人员和从业者在微调过程中更好地理解和预测模型的性能,并进行更有效的模型选择和调优。PEFT的主要思想是通过预测模型在微调任务上的性能,提供对不同模型和参数设置的性能估计。这样可以避免在大规模数据集上进行昂贵的微调实验,从而节省时

文章图片
#机器学习#深度学习#神经网络
多模态大模型--音频&文本

的目标是,通过减少音频文件的大小来节省存储空间或减轻网络传输的负担。理想的情况下,即使音频被压缩,我们听到的声音与原版也应该没有任何区别。Opus是一个多才多艺的音频编解码器,它适用于各种应用,从视频会议(比如 Google Meet)到在线视频流(比如 YouTube)。Opus支持的压缩比率非常灵活,从每秒6千比特到每秒510千比特都可以。EVS,是由3GPP标准化组织针对移动电话>)开发的最

文章图片
#音视频
中文大模型数据集

2、完成融合coig以及catslu数据的指令微调,在catslu测试数据集上效果验证domain acc=0.646,

文章图片
#人工智能
大模型LLM相关面试题整理-位置编码-tokenizer-激活函数-layernorm

绝对位置编码是一种用于为序列数据中的每个位置添加绝对位置信息的技术。在自然语言处理中,绝对位置编码常用于处理文本序列,特别是在使用Transformer模型进行序列建模的任务中。在传统的Transformer模型中,位置编码使用了正弦和余弦函数的组合来表示相对位置信息,但它并没有提供绝对位置的信息。这意味着,如果将输入序列的位置进行重新排序或删除/添加元素,模型将无法正确地理解序列的新位置。为了解

文章图片
#easyui#前端#javascript
    共 94 条
  • 1
  • 2
  • 3
  • 10
  • 请选择