logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

在openEuler(昇腾平台)上基于Conda安装CANN和PyTorch的完整过程

本文总结了在Conda环境中配置Ascend NPU环境的完整过程。首先通过创建activate.d文件夹实现自动加载set_env.sh脚本,解决了每次激活环境都需要手动设置的问题。随后详细记录了安装PyTorch 2.6.0和torch-npu过程中遇到的依赖缺失问题,包括numpy、decorator、scipy、attrs、psutil等模块的逐一安装过程。最终成功运行了简单的矩阵运算测试

#conda#pytorch#人工智能
在openEuler(昇腾平台)上基于Conda安装CANN和PyTorch的完整过程

本文总结了在Conda环境中配置Ascend NPU环境的完整过程。首先通过创建activate.d文件夹实现自动加载set_env.sh脚本,解决了每次激活环境都需要手动设置的问题。随后详细记录了安装PyTorch 2.6.0和torch-npu过程中遇到的依赖缺失问题,包括numpy、decorator、scipy、attrs、psutil等模块的逐一安装过程。最终成功运行了简单的矩阵运算测试

#conda#pytorch#人工智能
srcml在ubuntu上报:version `CURL_OPENSSL_3' not found的解决方法

由于项目需要,在一台ubuntu上使用GumTree:https://github.com/GumTreeDiff/gumtree由于GumTree需要使用srcML作为后端,所以在这里下载了其安装程序:https://www.srcml.org/#download直接运行后,运行GumTree的一些代码,结果GumTree报了异常,所以在终端下尝试直接运行:srcml,结果不出所料有...

记录一个Ubuntu中python深度学习程序的内存泄漏情况及其处理

不得不说,很多看似很成熟的程序,也会有很多内存泄露的问题:由于实验需要,我需要在硬盘上生成很多的小文件,然后调用srcML处理(我也试过直接在内存中读写,但会有其他问题),然后根据处理结果生成embedding。最终生成几个list,每个list大概有十几万个图。本来很简单的过程,但是跑实验的时候遇到了好几个内存泄漏问题:1. 我希望看到生成小文件的过程,因为可以判断程序运行的速度,就一直开着文件

#python#ubuntu
Windows系统上怎么设置Ollama环境变量

例如我们在windows环境变量中可以把OLLAMA_KEEP_ALIVE改成1h,OLLAMA_NUM_PARALLEL改成2,就可以同时有两个并发访问,并且驻留时间为1h了(如果用ollama ps则会显示59 minutes)。如果要改驻留时间,就修改OLLAMA_KEEP_ALIVE,那这个环境变量是什么单位呢?

文章图片
#windows
用LangChain调用Ollama的时候一个小问题

来测试其是否正常,通常会出来“Ollama is running”,然后我习惯性地从Chrome把地址拷贝到VS Code,真是太奇怪了,试了几次才发现,原来不能带那个反斜杠!这个问题真是让人无语。说来让人无语,简单记录一下。安装好Ollama后,我们通常通过访问。

Git中AuthorDate和CommitDate的区别以及由此引起的JGit使用时造成的Bug

这个坑,多少让人觉得有点无语。其实很早就注意到,Git中一次Commit对应两个时间的,但是也没仔细看JGit中的时间对应的是哪个时间。这里我们以这个Repo为例:https://git-wip-us.apache.org/repos/asf/wicket.git对于这个Repo而言,如果我在命令行中输入:git show ca03c252b5745bdccfb7c8cdffcc705846593

LightRAG跑Ollama的例子没有正确输出的解决方法

摘要:在使用LightRAG时发现qwen2.5:32b模型无法正确输出结果,表现为无法识别输入内容。通过调整num_ctx参数或改用llama3.1:8b模型后,系统能正确分析《圣诞颂歌》的主题(如救赎、成长、社会阶层等)。但发现代码存在多个低级bug,质疑开发者是否进行充分测试。建议在使用时注意模型选择和参数配置,特别是上下文长度设置对结果的影响很大。

#人工智能
用LLama factory时报类似Process 2504721 got signal: 1的解决方法

然后在终端里输入exit,然后再关闭ssh session即可。之前用nohup来远程跑LLama factory微调脚本,是没有问题的,但今天发现运行类似。就简单总结这么多,主要是现在大模型微调太费事,如果跑了一半出现这种问题真的很让人崩溃。

#人工智能
多个nvidia GPU怎么限制功率

这也是个很简单的问题,我简单总结一下,目前在家里有一台双3090涡轮版的PC,声音真的很大,可是很多时候我们其实并不需要其功率很好,只要显存够用就可以。看有些人说Ubuntu上现在不能设置,可是我在24.04上测试是可以设置的。另外,上面的文章往往只提到用一个GPU时的情况,我总忘记怎么指定两个卡。重启后需要重新运行。

#ubuntu
    共 47 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择