简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
服务器环境:显卡驱动:Driver Version: 530.30.02CUDA版本:CUDA Version: 12.1显卡:NVIDIA GeForce RTX 3090共4张注意:最好把显卡驱动升级到530,CUDA版本之前使用11.7有问题。
公司有多台AI服务器,最近几台服务器在执行nvidia-smi命令时,非常慢,要等5-6秒才能执行成功,翻了系统日志也没找到任何异常,最后发现,原来是显卡切换到了节能模式,只需关闭节能模式,切换到持久模式即可。系统重启后,大概率又会变成节能模式,只需要在系统引导时自动启用NVIDIA持久性模式即可。
因为当前SQL 运行模式为 ONLY_FULL_GROUP_BY,该模式要求 SELECT 列表中的所有非聚合字段必须出现在 GROUP BY 子句中,或者与 GROUP BY 列中的字段存在函数依赖关系。最简单的办法就是禁用 ONLY_FULL_GROUP_BY。
【代码】Failed to build scipy59.56 ERROR: Could not build wheels for scipy, which is required to install py。
项目上线正式服务器后,发现one-api容器无法启动,日志发现其无限重启,错误原因是failed to get gpt-3.5-turbo token encoder,看来它肯定是需要联网下载数据,我的正式服务器是无法上网的。默认程序启动时会联网下载一些通用的词元的编码,如:gpt-3.5-turbo,在一些网络环境不稳定,或者离线情况,可能会导致启动有问题。可通过配置TIKTOKEN_CACHE
提示 [mmdeploy] [error] [common.cpp:67] Device "cuda" not found那就pip把mmdeploy-runtime卸载了,然后用gpu版本pip install mmdeploy-runtime-gpu。说明你安装了onnxruntime和onnxruntime-gpu,卸载掉其中一个即可,因为我希望用gpu跑onnx,所以留下onnxrunti
overleaf在线版限制很多,好在开源,准备在本地Docker部署,网上翻了翻,似乎本地部署并非易事,我也尝试了一下,发现直接使用docker-compose拉官方最新镜像部署的确问题很多,不过最终还是完美解决。
公司最近刚忙完一个项目,闲暇之余,看着手里的树莓派、stm32、Esp32又有些手痒了,准备再搞点小项目出来,但一直没有什么好想法。说来也巧,恰好收到了CSDN官方的OrangePi AIpro测评活动,平时一直都在用树莓派做点小项目,香橙派的大名也有所耳闻,但从未接触过,恰好有这么一个机会了解一下,必须好好把玩一下。深入了解测评活动后才知道,原来香橙派 AIpro是块AI板子,用的是华为昇腾AI
拿到一台Jetson AGX Orin,准备搭建AI环境,搭建过程中参考不少文章,也踩了不少坑,特此记录一下。
输出格式C array,点击Convert进行转换。上传图片,如果想要透明效果,那么选择。下载.c文件放置到工程下使用即可。使用LVGL官方工具。