简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
通过 ollama 本地运行 Llama3 大模型其实对我们开发来说很有意义,你可以私有化放服务上了。然后通过 api 访问,来处理我们的业务,比如翻译多语言、总结文章、提取关键字等等。你也可以安装 enchanted 客户端去直接访问这个服务 api 使用。
前两天群里面到处在转一个飞书云文档,讲道理,以往硅基君看到的这种到处转发的文档,一般都是pdf或者ppt格式,内容大多劲爆刺激。比如渣男出轨聊天记录,渣女开房历史之类的,充分满足了小编当赛博判官的乐趣。可这飞书玩意不一样,标题为《通往AGI之路》的文档,是一篇实打实的学习资料。大家有多热爱学习呢,可以说无论什么时候点进去,里面都有几百个人在同时阅读,咱也把链接附上:通往 AGI 之路这份详实的学习
部署一个自己的大模型,没事的时候玩两下,这可能是很多技术同学想做但又迟迟没下手的事情,没下手的原因很可能是成本太高,近万元的RTX3090显卡,想想都肉疼,又或者官方的部署说明过于简单,安装的时候总是遇到各种奇奇怪怪的问题,难以解决。本文就来分享下我的安装部署经验,包括本地和租用云服务器的方式,以及如何通过API调用大模型开发自己的AI应用,希望能解决一些下不去手的问题。
众所周知,大语言模型(LLM)正在飞速发展,各行业都有了自己的大模型。其中,大模型微调技术在此过程中起到了非常关键的作用,它提升了模型的生成效率和适应性,使其能够在多样化的应用场景中发挥更大的价值。那么,今天这篇文章就带大家深入了解大模型微调。其中主要包括什么是大模型微调、什么时候需要大模型微调、大模型微调方法总结、大模型微调最佳实践等。在介绍大模型微调方法之前,首先带大家了解一下大语言模型的项目