logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

使用GPU训练模型

本地训练模型可以用CPU和GPU,但是GPU的性能比CPU要好得多,所以如果有独立显卡的,尽量还是用GPU来训练模型。软件一共3.2G,安装软件之前,确定软件有VC++环境,不然会失败。使用GPU需要安装Cuda和Cudnn。我是装了Visual Studio 2019。然后安装ultralytics等基础依赖。编写一个测试代码,看看是否支持CPU。我这里支持的版本是:12.8。GPU版本的tor

文章图片
#机器学习
crapy 爬虫框架的使用

大功告成!!!!打开python控制台,输入启动我们的爬虫。

文章图片
#python#爬虫
将mupdf封装成库,提供产品API接口

一、编译成静态库之后,再编写dll,为项目提供pdf操作接口项目结构如图:MoonPDF_DLL是C++封装的动态链接库,MoonPDF_DLL_TEST为C#界面测试工程。测试如下:提供很多pdf常规操作功能,如果需要自己添加更多功能,比如提取文本信息,可以自行下载源码修改:源码地址:GitHub - lengkristy/MoonPDF_DLL: pdf的DLL项目...

3分钟:本地部署DeepSeek

D:\models\models\deepseek-r1-7b-q4\xxx.gguf 这里的xxx.gguf表示下载的模型文件,接下来打开lm-studio,选择【我的模型】也就是左边像文件夹一样的按钮,然后修改模型目录,以上面的模型目录为例,设置的目录应该是:D:\models 这样才能被lm-studio正确识别模型路径。最后选择离线版AI是因为在线版本虽然价格公道,但是还是有不少限制,尤其

文章图片
#深度学习
3分钟:本地部署DeepSeek

D:\models\models\deepseek-r1-7b-q4\xxx.gguf 这里的xxx.gguf表示下载的模型文件,接下来打开lm-studio,选择【我的模型】也就是左边像文件夹一样的按钮,然后修改模型目录,以上面的模型目录为例,设置的目录应该是:D:\models 这样才能被lm-studio正确识别模型路径。最后选择离线版AI是因为在线版本虽然价格公道,但是还是有不少限制,尤其

文章图片
#深度学习
rancher + k3s + docker私有仓库搭建K8环境(百分之百成功)

然后我们找一个虚拟机进行拉取刚才我们上传的镜像,测试是否能够征程拉取,由于采用的是http,没有证书,所以我们在拉取镜像之前先配置docker,编辑/etc/docker/daemon.json文件,如果没有则创建文件。因为K3安装需要下载外网资源,所以需要每台机器都要具备访问外网能力,这里采用docker版本的v2ray,所以4台虚拟机都要安装docker,使用如下命令进行安装docker。这里

文章图片
#rancher#docker#k8s
到底了