简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
Ubuntu22.04本地部署qwen模型、jupyterlab开发环境、LoRA微调全流程
这段时间在自己的Win11系统上部署了chatGLM以及Qwen模型,进行对话、推理以及工具调用都没有问题,但是在尝试进行微调的时候发现好像并不能成功,因此花费了很大的力气,又分别在ubuntu桌面版、windows子系统WSL2 Ubuntu上部署了Qwen模型,并尝试进行LoRA的微调实践。由于过程比较多,步骤较为繁琐,我可能会分几个部分进行叙述。首先介绍一下我的两个环境(平民玩家,勿喷):一
WSL2+ChatGLM2+FastGPT+oneapi本地化部署
使用WSL2+docker+oneapi成功部署fastGPT
windows系统jupyter lab安装和配置:本地开发、探索大模型的利器
本文介绍了jupyterlab的安装和配置。
采用API的方式调用本地chatGLM2-6B,postman方式访问接口,openai格式调用接口
本文记录了采用api的方式访问本地chatGLM2-6B的方法
学习笔记:使用Ollama项目快速本地化部署Qwen 1.5模型
本文记录了采用Ollama项目快速本地部署运行qwen1.5模型。
Ubuntu22.04本地部署qwen模型、jupyterlab开发环境、LoRA微调全流程-续
接着上一篇,在Ubuntu22.04本地部署qwen模型,准备数据,进行LoRA微调。
Qwen模型LoRA微调后的两种启动方式
本文记录了Qwen模型LoRA微调后的两种启动方式。
qwen2:7b本地化部署:Ollama更新、设置、api调用qwen2服务
本篇介绍了如何使用Ollama本地化部署qwen2:7b,以及进行Ollama的参数设置以及使用api调用qwen2的api服务的方法。
虚拟机安装麒麟操作系统网络设置
麒麟操作系统安装在虚拟机上,设置网络时,发现一些问题,现在解决了,记录一下。1、虚拟机安装麒麟操作系统后,选择网络设置,没有连接选项,无法连接到主机网络。(截图忘保存了)这是由于安装麒麟系统时,未选择正确的linux版本,我们选择“CentOS 8”,重新安装,即可看到网络设置中,可以连接到主机的网络。2、主机与虚拟机麒麟系统无法ping通,可以参照以下步骤进行设置。(1)设置虚拟机IP点击右下角