简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
Llama3的本地部署
Llama3在Meta自制的两个24K GPU集群上进行预训练,使用15T的训练数据,其中5%为非英文数据,故Llama3的中文能力稍弱, Meta认为Llama3是目前最强的开源大模型
langchain入门一:python+langchain+通义千问,白嫖qwen大模型实现自己的聊天机器人
langchain入门一:python+langchain+通义千问,白嫖qwen大模型实现自己的聊天机器人
通义千问重磅开源Qwen2.5,性能超越Llama
通义千问重磅开源Qwen2.5,性能超越Llama
一文教你读懂:LoRA实现大模型LLM微调
微调使我们能够将模型调整到目标领域和目标任务。然而,它在计算上可能非常昂贵-模型越大,更新其层的成本就越高。作为更新所有层的替代方法,已经开发了参数高效的方法,例如前缀调整和适配器。
打造自己的大模型|01篇LLaMA-Factory微调Llama3和其占用资源分析
本教程就以Llama3-8B-Instruct开源模型为模型基座,通过开源程序LLaMA-Factory来进行中文的微调,提高Llama3的中文能力!
Mac环境下ollama部署和体验
ollama和LLM(大型语言模型)的关系,类似于docker和镜像,可以在ollama服务中管理和运行各种LLM,下面是ollama命令的参数,与docker管理镜像很类似,可以下载、删除、运行各种LLM
到底了