
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
最近在用ubuntu系统做实验,而ubuntu 系统的文件上传和下载操作很麻烦;上述脚本实现,将 本地文件上传到阿里网盘的,从网盘下载文件。

使用uv工具进行Python包管理的流程,重点演示了如何打包和安装本地Python包。文章以vector_pkag项目为例,展示了项目结构、模块导入方式、测试配置方法,并通过uv build命令生成whl文件。详细说明了如何在其他项目中通过uv add安装本地whl包。还提供了VSCode的settings.json配置建议,确保开发和测试环境一致性。整个过程体现了uv工具在Python包管理中的
解决显卡在Linux下温度过高(86℃)且风扇转速不足的问题,作者先更新NVIDIA驱动未果,后使用CoolerControl软件成功将温度控制在80℃以下。通过设置风扇转速曲线,可同时调节CPU/GPU风扇。

Mac / 苹果电脑 安装vscode,并在终端配置,可通过终端打开文件夹

使用模型训练完命名实体识别的模型后,发现不知道怎么评估实体识别的准确率、召回率和F1。于是便自己实现了代码,同时提供了完整可运行的项目代码。

介绍了多标签分类模型的实践过程。构建了一个基于坐标象限分类的简易数据集,通过坐标点(x,y)判断其所属象限(输出为两个二元标签)。实验发现,使用单层线性模型效果最佳,而更复杂的结构反而性能下降。重点比较了两种损失函数:nn.BCEWithLogitsLoss()在数值稳定性和计算效率上显著优于nn.Sigmoid()+nn.BCELoss()的组合。直观观察到模型输出的概率值在0.5边界附近的变化
本文介绍了如何通过 LlamaFactory 原生数据集,实现支持 LoRA 微调模型的 vllm 批量推理。提供了完整代码实现和配置示例,展示了使用 vllm 加速推理的方式。测试结果表明vllm推理代码提升了推理效率。

在5090显卡(32GB显存)上运行Qwen3-30B大语言模型时遇到的显存不足问题及解决方案。发现除了模型参数外,KV缓存等中间状态会消耗大量显存。通过使用vLLM框架并设置合理的max_model_len参数(如2048),可以有效控制显存使用。
ubuntu 添加 neo4j 仓库,实现通过 apt 下载,并配置远程连接neo4j

介绍了在 Linux 系统上安装和配置 Neo4j,以及如何切换不同的数据库以管理多个知识图谱。首先介绍了如何在 Ubuntu 上通过命令行安装 Neo4j。针对 Neo4j 免费版不支持多数据库管理的限制,作者提供了一种通过本地文件夹切换数据库的解决方案。步骤包括停止 Neo4j 服务、备份现有数据库文件、创建新文件夹、设置新密码,并启动新的知识图谱数据库。








