logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Hugging Face 下载模型权重太慢?一招解决!

很多人在使用 Hugging Face 下载模型时,会遇到以下问题:下载速度极慢,甚至直接失败;下载下来的模型文件层层嵌套,管理非常麻烦。如上图所示,传统方式常常因为网络问题导致下载失败或非常缓慢。为了解决这个问题,可以通过替换下载源,并使用 huggingface-cli 工具来实现更快、更稳定的模型下载方式。我们可以采用以下命令来加速并优化模型下载过程。

文章图片
#python#人工智能#深度学习 +3
【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南

这篇博客详细介绍了如何在Windows系统上本地部署DeepSeek R1模型,并使用Open WebUI进行可视化交互。文章涵盖了必要工具的安装,如Ollama和Docker,配置模型权重下载路径,下载DeepSeek R1模型,并通过WebUI进行模型测试和交互。适合希望在本地环境中运行DeepSeek R1的用户,帮助顺利完成部署过程。

文章图片
#windows#人工智能#自然语言处理 +4
快速上手 WandB:用 PyTorch 训练 MNIST + 可视化全流程

本篇文章将带你通过一个完整的 PyTorch 示例,从零快速上手 WandB:训练一个简单的 CNN 模型用于 MNIST 分类,并记录并可视化训练过程。在训练深度学习模型时,如何高效地追踪训练过程、记录实验参数、可视化损失与准确率曲线,一直是我们开发流程中的痛点。你可以通过命令行自由调整每次实验的配置,比如 batch size、dropout 等。你可以在 WandB 面板中直观查看每个 ep

文章图片
#pytorch#人工智能#python +3
【全网首发】使用 LoRA 微调 Qwen2.5-VL-7B-Instruct:完整流程解析

本篇文章介绍了如何使用 LoRA(Low-Rank Adaptation) 技术对 Qwen2.5-VL-7B-Instruct 进行轻量级微调,从而高效适配特定任务。我们详细解析了 模型加载、数据预处理、LoRA 适配、训练配置及推理评估 的完整流程,并提供了代码示例。通过 LoRA,我们可以 在较低计算资源下快速微调大规模视觉-语言模型(VLMs),使其更适用于特定领域任务。对于希望优化 Qw

文章图片
#python#人工智能#自然语言处理 +4
【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南

这篇博客详细介绍了如何在Windows系统上本地部署DeepSeek R1模型,并使用Open WebUI进行可视化交互。文章涵盖了必要工具的安装,如Ollama和Docker,配置模型权重下载路径,下载DeepSeek R1模型,并通过WebUI进行模型测试和交互。适合希望在本地环境中运行DeepSeek R1的用户,帮助顺利完成部署过程。

文章图片
#windows#人工智能#自然语言处理 +4
Hugging Face 下载模型权重太慢?一招解决!

很多人在使用 Hugging Face 下载模型时,会遇到以下问题:下载速度极慢,甚至直接失败;下载下来的模型文件层层嵌套,管理非常麻烦。如上图所示,传统方式常常因为网络问题导致下载失败或非常缓慢。为了解决这个问题,可以通过替换下载源,并使用 huggingface-cli 工具来实现更快、更稳定的模型下载方式。我们可以采用以下命令来加速并优化模型下载过程。

文章图片
#python#人工智能#深度学习 +3
【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南

这篇博客详细介绍了如何在Windows系统上本地部署DeepSeek R1模型,并使用Open WebUI进行可视化交互。文章涵盖了必要工具的安装,如Ollama和Docker,配置模型权重下载路径,下载DeepSeek R1模型,并通过WebUI进行模型测试和交互。适合希望在本地环境中运行DeepSeek R1的用户,帮助顺利完成部署过程。

文章图片
#windows#人工智能#自然语言处理 +4
到底了