logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

3分钟教你搞懂人工智能大模型的训练过程

大模型的训练是无监督学习还是有监督学习?在大模型训练过程中,数据的标签是什么?如何计算损失然后进行反向传播的呢?

文章图片
#人工智能#机器学习#深度学习 +1
大模型入门(四)—— 基于peft 微调 LLaMa模型

llama-7b模型大小大约27G,本文在单张/两张 16G V100上基于hugging face的peft库实现了llama-7b的微调。

文章图片
#人工智能#自然语言处理#语言模型 +2
【LLM大模型】LLaMA3微调部署真不难!拿走这份教程,轻松掌握LLaMA大模型微调!

今天给大家分享一个爆火的llama3教程,也就是下面这份:这个项目是基于Meta最新发布的新一代开源大模型Llama-3开发的,是Chinese-LLaMA-Alpaca开源大模型相关系列项目的第三期。学完这份教程,你就能掌握LLaMA3的微调部署,该项目我已经帮大家打包好了,需要的可以拿走!

文章图片
#人工智能
十分钟学会微调大语言模型

本文就来介绍一种大语言模型微调的方法,使用的工具是我最近在用的 Text Generation WebUI,它提供了一个训练LoRA的功能。

文章图片
#语言模型#人工智能#自然语言处理 +2
【开源推荐】本地运行自己的大模型--ollama

ollama是一款开源的、轻量级的框架,它可以快速在本地构建及运行大模型,尤其是一些目前最新开源的模型,如 Llama 3, Mistral, Gemma等。

文章图片
#语言模型#人工智能#自然语言处理 +1
【预训练大语言模型】使用Transformers库进行GPT2预训练

【预训练大语言模型】使用Transformers库进行GPT2预训练

文章图片
#人工智能#自然语言处理#python +1
【预训练语言模型】 使用Transformers库进行BERT预训练

【预训练语言模型】 使用Transformers库进行BERT预训练

文章图片
#bert#人工智能#自然语言处理
【LLM大模型】本地部署 Llama 3.1:Ollama、OpenWeb UI 和 Spring AI 的综合指南

本文介绍如何使用 Ollama 在本地部署 Llama 3.1:8B 模型,并通过 OpenWeb UI 和 Spring AI 来增强模型交互体验和简化 API 的调用过程。

文章图片
#人工智能
大模型的幻觉 (Hallucination) 因何而来?如何解决幻觉问题?

为什么 LLM 会出现幻觉?如何缓解这种情况?使用的数据集对此现象的影响几何?本文将为您一一解答。

文章图片
#人工智能#自然语言处理#语言模型 +2
    共 15 条
  • 1
  • 2
  • 请选择