
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
llama-cpp-python本地部署并使用gpu版本
如果仅使用pip install llama-cpp-python会仅使用cpu运行。并且使用LLAMA_CUBLAS 可能会出现以下错误。

可视化pytorch网络模型(根据代码出图)、各阶段输入输出形状、参数量(占显存大小)
可视化网络模型可以使用和netron,这里netron对应复杂模型处理的比较好,tensorboard出不了图。各阶段输入输出形状可以使用。

vscode使用中转主机(跳板机)连接远程服务器
然后点击左下角连接至主机,选择远程服务器依次输入密码就可以了。点击左下角连接主机,首先随便创建一个,点开配置SSH主机。首先下载Remote-SSH。

到底了








