
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
10_Nvidia CUDA + Pytorch库(个人AI大模型开发测试运行基础环境3)
运行大模型少不了的驱动之cuda。
09_wsl2+Ubuntu+docker(个人AI大模型开发测试运行基础环境2)
为什么要用 docker?目前大部分LLM 推理框架都支持 docker 的方式安装,好处是可以快速的搭建好环境,不需要安装组件的依赖,一键安装与删除。没有安装 wsl2 的 参考。
08_Win+wsl2+Ubuntu(个人AI大模型开发测试运行基础环境)
conda 有了、ptyhon 有了、pip 有了、pycharm也有了,现在就差一个操作系统就可以进入跑大模型的步骤了。当然如果你是纯用python 项目开发也可以参考这个方式,参考。
AI 运行环境基础常识1
一、AI 核心三要素: 数据 + 算法 + 算力这里先介绍算力,后续再补充数据与算法## 算力这里的算力指的是GPU算力,就个人而言一般就是消费级的显卡。对企业而言:大力出奇迹,没什么好说的,算力超高越好、显存越大越好。对个人而言:1、建议使用 nvidia(中国大陆译名:英伟达,港台译名:辉达)的显卡,如果你对自己特别有自信且想折腾的可以选择 AMD、intel的显卡。初学一般不建议使用AMD、
到底了