logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【VS Code远程连接失败】No space left on device

我回想了一下,昨天我在服务器上下载了一些大模型文件,但没有指定下载路径,结果它们默认被缓存到了根目录。我用VS Code连接我的远程服务器时,连接一直卡住,最终弹出报错。由于VS Code无法连接,我选择用传统的SSH客户端来排查。我使用的是Git Bash。输出结果显示了目录总大小超过1.6GB,证实了我的猜想。查看父目录,发现还有其他占用了几百兆空间的模型文件夹,我同样将其删除。输入密码后,我

【小白笔记】Hugging Face 下载:Git 到镜像网站的

运行命令后,它让我输入一个“令牌”(Token),而不是密码。这个网站几乎复制了官方仓库的所有内容,但它服务器在国内,网络连接非常稳定。原来,虽然安装成功了,但系统找不到这个命令。我这才意识到,我根本没配置过 Hugging Face 的 SSH 密钥,所以认证失败了。事情是这样的,我最近想下载一个 Hugging Face 上的AI模型,名字叫。已经很强大了,但在这种恶劣的网络环境下,它也无能为

#git
train_and_evaluate 代码详解

def: Python关键字,定义函数train_and_evaluate: 函数名称,表示"训练和评估"model: 参数,接收要训练的Keras模型对象model_name: 参数,字符串类型,用于标识模型名称loss_fn: 参数,损失函数(如交叉熵或focal loss)X_train_normalized: 参数,标准化后的训练集特征数据y_train: 参数,训练集标签X_test_n

文章图片
#深度学习#tensorflow#神经网络
【小白笔记】 MNN 移动端大模型部署

最近尝试用 MNN 框架在我的 Android 手机上跑一个大模型。这篇笔记记录了我从零开始,克服重重困难,最终成功配置好开发环境的心路历程。

#mnn#人工智能
日志(一):Git 克隆终极指南,从反复失败到最终成功

在尝试用 MNN 框架跑通大模型的第一步,我遇到了一个意想不到的挑战:Git 克隆失败。经过一番折腾,我终于找到了问题的根源,并成功解决了它。这篇笔记记录了我的完整探索历程,以及我在其中学到的所有知识。在所有软件层面的配置都失败后,我开始怀疑是不是网络环境本身有问题。命令时,它就像什么都没发生一样,非常流畅地完成了克隆。我当时以为是简单的网络不稳定,于是尝试了所有能想到的配置方法。我断开了公司的有

#git#php#开发语言
【操作记录】MNN Chat Android App 构建笔记(二)

步骤报错原因解决找不到 toolchain.cmake默认路径不对设置环境变量cmake …没有 CMakeLists.txt路径选错必须在项目根目录执行make找不到 makeWindows 下没有 GNU Make用Ninja网络问题配置代理,关闭 offline modekotlin-compiler 下载很慢包很大 (56MB)等待即可准备环境CMake:Ninja: 已安装 (正常)编译

#mnn#android
【深度学习】compile() ,fit(),`binary_crossentropy`

编译(compile)就是配置模型的“训练规则”。使用什么优化器(如 Adam、SGD)来更新权重用哪个损失函数来计算“学得好不好”训练/验证过程要监控哪些指标就像准备工作,把模型架好、规则定好,才能开训。是用来衡量“你对1类预测得有多准”的标准,预测准 → 损失小,预测错 → 损失大,是神经网络学习的核心“指导信号”。

文章图片
#深度学习#人工智能
python实现LSTM(一):加载数据

将原始数据拉平成一维数组(比如(1000,1) 变成 (1000,):将原始数据拉平成一维数组(比如(1000,1) 变成 (1000,)注意这里读取的维数会发生变化,我的原数据是(time,ch,n):函数的输入参数,分别表示标签为 1 和标签为 0 的文件路径。好像差不多,都是“1000 个数”,但实际上它们的结构是。所以维度变化的根源是:“读取时的内存解释方式不同”,:上下文管理器(自动打开

#python#numpy#机器学习
WSL2 环境变量配置详解:export PATH、CUDA_HOME 与 $HOME 全解析

把添加到 PATH 的最前面,确保你安装在这个位置的工具优先被使用。定义了一个环境变量CUDA_HOME,以后可以用$CUDA_HOME代替,让配置更简洁且易于切换版本。让系统能够识别nvcc等 CUDA 命令,同时确保使用的是指定版本(比如 12.6)的 CUDA。让系统知道 CUDA 的动态链接库放在哪,避免运行程序时提示之类的错误。命令作用优先使用用户目录下安装的命令(如用 pip 安装的工

#linux
在 WSL(Windows Subsystem for Linux)中安装 CUDA 12.2 命令详解(二)

apt:Advanced Package Tool,APT 管理.deb软件包。dpkg:Debian Package,手动安装.deb包。.deb:Debian 系的打包格式,像 Windows 的.exe。依赖 = 一个软件运行必须依靠的其他软件。发行版 = Linux 内核+环境的“完整打包版本”。💡 结论配置 NVIDIA CUDA 的软件源(优先级pin文件 + GPG 密钥)。安装

#windows#linux#stm32
    共 12 条
  • 1
  • 2
  • 请选择