
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
论文大体内容本文介绍了快手团队提出的新一代推荐系统OneRec,旨在解决传统多阶段级联推荐架构存在的计算碎片化、优化目标冲突及与AI前沿技术脱节等问题。Motivation推荐系统框架是级联式的多层框架,该非End2End的框架存在碎片化和优化不一致的问题。因此本文对推荐系统的范式做优化,使用End2End的生成式推荐来重塑推荐系统。Contribution本文提出了End2End的推荐系统新框架
书名: 算法交易员——会赚钱的人工智能链接: https://item.jd.com/12696862.html这本书主要写了宽客(量化交易员)的发展历史,以及作者作为一名宽客,从入行到目睹这一行业的种种瞬间、变化、发展的感悟。其实这本书更多的还是类似闲聊或者从讲作者自身目睹的故事来写的,并没有我所期待的“干货”,但是看了之后能对一个想了解这一行业的小白有所帮助。我最早了解量化交易这一领域,是本科
论文大体内容:本文主要提出了NeuralSort模型,通过引入松弛,对置换矩阵变换为单峰行随机矩阵来解决sorting问题,使之前不能end2end训练(不可微分)的模型也能进行梯度下降优化。Motivation:Sorting问题不可微分,引入松弛来克服这个问题。Contribution:①提出NeuralSort模型,克服不可end2end训练问题;②应用NeuralSort模型到排列问题中(
本文基于公开的数据集Common Crawl,采用了一种方法抽取出高质量的120B数学数据集,并基于这个数据集训练了一个数学推理模型DeepSeek Math。该模型借助本文提出的GRPO(Group Relative Policy Optimization)方法,增强了其数学推理能力。最终在数学推理上取得了对标GPT-4的效果。
本文提出了一种面向过程的数学奖励模型Math-Shepherd。它通过自动给解题的每个步骤分配分数,来解决人工标注数据的依赖。从而使得模型不使用人工标注数据也能达到很好的效果。
本文发布了DeepSeek-V3模型,框架遵循了V2模型[3],包括MLA和MoE。除此之外,本文融合了MTP(Multi-Token Prediction)的优化点,让模型训练更稠密。经过14.8T的token训练,得到一个671B的模型,共花费557.6万美元,取得了开源模型SOTA的效果,并与闭源模型GPT-4o效果相当。
本文发布了DeepSeek-V2模型,使用了8.1T tokens去训练,属于236B的MoE模型,激活参数量是21B,特别经济高效。其主要创新点是MLA(Multi-head Latent Attention),相比DeepSeek 67B模型,节省了42.5%的训练花销,减少93.3%的KV cache。
本文将DeepSeek LLM从Dense模型改为MoE模型,这也是follow了GPT的发展之路。主要工作是探索MoE的结构,包括增加专家的数量以及拆分为共享专家和独享专家。通过这样的操作,虽然模型参数量增大,但是实际infer的时候激活的参数量并不大,从而达到效果提升且成本降低的成效。
论文大体内容本文主要对scaling laws进行了精细化的研究,给出了一个新的公式,并发布了DeepSeek自己的LLM模型(对标LLaMa2),其中7B和67B的模型对标LLaMa2的7B和70B,并拿到了超过LLaMa2的效果。
记得本科时上“并行计算处理”课程时,在Visual Studio以及Linux GCC里跑过openmp,感觉特别方便,因此尝试了一下在codeblocks下使用openmp。折腾了好一会才发现codeblocks的gcc编译器很难配置openmp。因此,得按[1]的思路,自己安装一个tdm-gcc编译器才行。1、安装codeblocks。2、下载tdm-gcc,一定要注意的是: