简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
【人工智能书籍】一本书读懂AIGC:ChatGPT、AI绘画、智能文明与生产力变革
今天又来给大家推荐一本人工智能方面的书籍。
3分钟教你搞懂人工智能大模型的训练过程
大模型的训练是无监督学习还是有监督学习?在大模型训练过程中,数据的标签是什么?如何计算损失然后进行反向传播的呢?
大模型入门(四)—— 基于peft 微调 LLaMa模型
llama-7b模型大小大约27G,本文在单张/两张 16G V100上基于hugging face的peft库实现了llama-7b的微调。
【LLM大模型】LLaMA3微调部署真不难!拿走这份教程,轻松掌握LLaMA大模型微调!
今天给大家分享一个爆火的llama3教程,也就是下面这份:这个项目是基于Meta最新发布的新一代开源大模型Llama-3开发的,是Chinese-LLaMA-Alpaca开源大模型相关系列项目的第三期。学完这份教程,你就能掌握LLaMA3的微调部署,该项目我已经帮大家打包好了,需要的可以拿走!
十分钟学会微调大语言模型
本文就来介绍一种大语言模型微调的方法,使用的工具是我最近在用的 Text Generation WebUI,它提供了一个训练LoRA的功能。
【开源推荐】本地运行自己的大模型--ollama
ollama是一款开源的、轻量级的框架,它可以快速在本地构建及运行大模型,尤其是一些目前最新开源的模型,如 Llama 3, Mistral, Gemma等。
【预训练大语言模型】使用Transformers库进行GPT2预训练
【预训练大语言模型】使用Transformers库进行GPT2预训练
【预训练语言模型】 使用Transformers库进行BERT预训练
【预训练语言模型】 使用Transformers库进行BERT预训练
【LLM大模型】本地部署 Llama 3.1:Ollama、OpenWeb UI 和 Spring AI 的综合指南
本文介绍如何使用 Ollama 在本地部署 Llama 3.1:8B 模型,并通过 OpenWeb UI 和 Spring AI 来增强模型交互体验和简化 API 的调用过程。
大模型的幻觉 (Hallucination) 因何而来?如何解决幻觉问题?
为什么 LLM 会出现幻觉?如何缓解这种情况?使用的数据集对此现象的影响几何?本文将为您一一解答。