logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Llama3的本地部署

Llama3在Meta自制的两个24K GPU集群上进行预训练,使用15T的训练数据,其中5%为非英文数据,故Llama3的中文能力稍弱, Meta认为Llama3是目前最强的开源大模型

文章图片
#人工智能
langchain入门一:python+langchain+通义千问,白嫖qwen大模型实现自己的聊天机器人

langchain入门一:python+langchain+通义千问,白嫖qwen大模型实现自己的聊天机器人

文章图片
#python#机器人#人工智能 +3
一文教你读懂:LoRA实现大模型LLM微调

微调使我们能够将模型调整到目标领域和目标任务。然而,它在计算上可能非常昂贵-模型越大,更新其层的成本就越高。作为更新所有层的替代方法,已经开发了参数高效的方法,例如前缀调整和适配器。

文章图片
打造自己的大模型|01篇LLaMA-Factory微调Llama3和其占用资源分析

本教程就以Llama3-8B-Instruct开源模型为模型基座,通过开源程序LLaMA-Factory来进行中文的微调,提高Llama3的中文能力!

文章图片
#人工智能#产品经理
Mac环境下ollama部署和体验

ollama和LLM(大型语言模型)的关系,类似于docker和镜像,可以在ollama服务中管理和运行各种LLM,下面是ollama命令的参数,与docker管理镜像很类似,可以下载、删除、运行各种LLM

文章图片
#macos#人工智能
到底了