logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

不依赖任何框架,手写原生 DeepSeek Agent 工具调用(Function Calling)详解

本文介绍了如何在不依赖第三方框架的情况下,使用DeepSeek API原生实现Agent工具调用功能。文章通过一个完整的天气查询示例,详细讲解了工具调用的四个核心步骤:定义工具函数、让模型自主判断调用、解析工具调用请求、执行并回传结果。示例代码展示了如何实现从用户提问→模型决策→本地执行→结果回传→最终响应的完整闭环。这种原生实现方式具有高度可控、透明、可扩展等优势,适用于对性能和安全性要求较高的

文章图片
#python#人工智能#自然语言处理 +2
【全网首发】使用 LoRA 微调 Qwen2.5-VL-7B-Instruct:完整流程解析

本篇文章介绍了如何使用 LoRA(Low-Rank Adaptation) 技术对 Qwen2.5-VL-7B-Instruct 进行轻量级微调,从而高效适配特定任务。我们详细解析了 模型加载、数据预处理、LoRA 适配、训练配置及推理评估 的完整流程,并提供了代码示例。通过 LoRA,我们可以 在较低计算资源下快速微调大规模视觉-语言模型(VLMs),使其更适用于特定领域任务。对于希望优化 Qw

文章图片
#python#人工智能#自然语言处理 +4
【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南

这篇博客详细介绍了如何在Windows系统上本地部署DeepSeek R1模型,并使用Open WebUI进行可视化交互。文章涵盖了必要工具的安装,如Ollama和Docker,配置模型权重下载路径,下载DeepSeek R1模型,并通过WebUI进行模型测试和交互。适合希望在本地环境中运行DeepSeek R1的用户,帮助顺利完成部署过程。

文章图片
#windows#人工智能#自然语言处理 +4
Hugging Face 下载模型权重太慢?一招解决!

很多人在使用 Hugging Face 下载模型时,会遇到以下问题:下载速度极慢,甚至直接失败;下载下来的模型文件层层嵌套,管理非常麻烦。如上图所示,传统方式常常因为网络问题导致下载失败或非常缓慢。为了解决这个问题,可以通过替换下载源,并使用 huggingface-cli 工具来实现更快、更稳定的模型下载方式。我们可以采用以下命令来加速并优化模型下载过程。

文章图片
#python#人工智能#深度学习 +3
【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南

这篇博客详细介绍了如何在Windows系统上本地部署DeepSeek R1模型,并使用Open WebUI进行可视化交互。文章涵盖了必要工具的安装,如Ollama和Docker,配置模型权重下载路径,下载DeepSeek R1模型,并通过WebUI进行模型测试和交互。适合希望在本地环境中运行DeepSeek R1的用户,帮助顺利完成部署过程。

文章图片
#windows#人工智能#自然语言处理 +4
Hugging Face 下载模型权重太慢?一招解决!

很多人在使用 Hugging Face 下载模型时,会遇到以下问题:下载速度极慢,甚至直接失败;下载下来的模型文件层层嵌套,管理非常麻烦。如上图所示,传统方式常常因为网络问题导致下载失败或非常缓慢。为了解决这个问题,可以通过替换下载源,并使用 huggingface-cli 工具来实现更快、更稳定的模型下载方式。我们可以采用以下命令来加速并优化模型下载过程。

文章图片
#python#人工智能#深度学习 +3
【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南

这篇博客详细介绍了如何在Windows系统上本地部署DeepSeek R1模型,并使用Open WebUI进行可视化交互。文章涵盖了必要工具的安装,如Ollama和Docker,配置模型权重下载路径,下载DeepSeek R1模型,并通过WebUI进行模型测试和交互。适合希望在本地环境中运行DeepSeek R1的用户,帮助顺利完成部署过程。

文章图片
#windows#人工智能#自然语言处理 +4
到底了