logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

对于LLM大模型,到底微调还是不微调?

在 LLM 出现之前,微调通常用于小规模模型(100M – 300M 参数)。当时,最先进的领域应用通过监督微调(SFT)构建,即使用标注数据对预训练模型进行进一步训练,以适应自己的领域和下游任务。

文章图片
#语言模型#开源#人工智能 +2
langchain入门五:知识串联,chain的使用,原来做一个LLM应用如此简单

langchain入门五:知识串联,chain的使用,原来做一个LLM应用如此简单

文章图片
#数据库#人工智能
带你快速了解大模型微调原理

大模型微调(Fine-tuning)是指在已经预训练好的大型语言模型基础上,使用特定的数据集进行进一步的训练,以使模型适应特定任务或领域。我们所说的“大模型”这个词:“大”是指用于训练模型的参数非常多,多达千亿、万亿;而“模型”指的就是上述公式中的矩阵W。在这里,矩阵W就是通过机器学习,得出的用来将X序列,转换成Y序列的权重参数组成的矩阵。需要特别说明:这里为了方便理解,做了大量的简化。在实际的模

文章图片
#人工智能
《大模型驱动的数字员工3.0建设应用白皮书》

在银行业数字化、智能化发展的过程中,数字员工成为发展数字金融的重要应用载体,正在重塑银行业的服务模式和创新能力。

文章图片
#开源#人工智能#自然语言处理
面了智谱大模型算法岗,效率贼高!

最近这一两周不少互联网公司都已经开始秋招提前批面试了。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。

#算法#人工智能#语言模型
【大模型开源教程】一大堆Llama3.1-Chinese正在袭来

Llama3.1模型已经开源,在这短短几天之内,也是出现了一些Llama3.1汉化的repo,开源社区也是相当的卷。

文章图片
#人工智能#产品经理#RAG
【LLM大模型】大模型涌现能力及 Prompt Engineering提示词

【LLM大模型】大模型涌现能力及 Prompt Engineering提示词

文章图片
#人工智能
在Ollama运行HuggingFace下载的模型

本地运行模型我之前都直接使用LM-studio,好用、无脑。本地用足够了。但是放在服务器上才是正道,本地运行无法长时间开启保持运行,而且Ollama推出了并行GPU计算之后可用性大幅提升,可用性很高。 今天研究下如何用Ollama如何在本地来使用这些HF的开源模型,后面把它搬到服务器上。

文章图片
#人工智能
Mac环境下ollama部署和体验

ollama和LLM(大型语言模型)的关系,类似于docker和镜像,可以在ollama服务中管理和运行各种LLM,下面是ollama命令的参数,与docker管理镜像很类似,可以下载、删除、运行各种LLM

文章图片
#macos#人工智能
    共 373 条
  • 1
  • 2
  • 3
  • 38
  • 请选择