
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
由于目前的工作,有一部分是为运营提供一些流量分析的支持,所以一些相应的基础知识就不得不学起来了。目前其中一种需求,就是统计广告的投放效果,常规做法就是添加追踪,在追踪链中添加utm参数,这样对于数据平台的聚合统计就比较方便了UTM :“Urchin Tracking Module”的简写,中文的大概意思就是跟踪模块功能:追踪渠道来源,便于根据不同渠道、内容等细分数据,目的:精细化运营分析...

大语言模型的训练主要包括哪几个阶段?每个阶段需要的数据、算力、训练方式、产出模型分别是什么? 每个阶段的训练难点分别是什么?哪个阶段是必须的,哪个阶段是可选的? 每个阶段模型的训练难点分别是什么?

算力是AI发展的驱动力,大模型时代更要格外关注算力。目前的大模型是个重资产行业,底层竞争在于半导体产业,AI的发展离不开芯片,甚至可以说,整个信息时代的发展都离不开芯片。

努力用这一万字,把Transformer相关知识讲明白......

努力用这一万字,把Transformer相关知识讲明白......

算力是AI发展的驱动力,大模型时代更要格外关注算力。目前的大模型是个重资产行业,底层竞争在于半导体产业,AI的发展离不开芯片,甚至可以说,整个信息时代的发展都离不开芯片。

今天开始计划开启一个系列 《带你自学大语言模型》。该系列的落脚点是“自学”和“大语言模型”,二者不分伯仲,因为我不想只做大语言模型知识的传递,互联网上已经有太多同质化的信息了;我希望能以学习大语言模型作为开始,帮助你一步步养成自学的能力。

上周LLM圈的大事件,莫过于LLaMa 3.1和 Mistral Large 2这两个开源模型的发布。本文对LLaMa 3进行技术分析

后面计划开始写RAG系列了,前面的坑也会陆续填的。本节6.1.1聊聊Al搜索,非技术向的,6.1.2~6.1.6 是RAG技术向的,大家按需取用即可。

本篇从大模型的评估方法,评估数据集来谈大语言模型的评估,主要侧重于数据集角度。本篇仍然是工具属性较多,整理了大量的评估数据集来源,建议是可以收藏,有需要的时候再看,我也是这样操作的








