
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
图解 LLM(大语言模型)的工作原理
在 x(原帖链接见文章末尾) 上看到有人分享一组图解 LLM 工作原理的帖子,内容通俗易懂,就搬运过来汉化一下,和大家一起学习!

大模型本地化微调+部署:使用ollama进行本地化微调+部署(附教程)
大模型本地化微调+部署:使用ollama进行本地化微调+部署(附教程)

Ollama 默认配置的安全风险与大模型私有化部署的隐患
Ollama 作为一款开源的跨平台大模型部署工具,凭借其高效的私有化部署能力以及对 DeepSeek 等先进模型的广泛支持,受到开发者和技术爱好者的青睐。然而,在追求技术便捷性的同时,安全风险往往被忽视,导致潜在的网络和数据安全隐患。

(中英双语)从零构建大模型:GitHub超44K Star的大模型教程(送PDF)
(中英双语)从零构建大模型:GitHub超44K Star的大模型教程(送PDF)

动手学LLM大模型应用开发:大模型简介与环境配置(附教程)
动手学LLM大模型应用开发:大模型简介与环境配置(附教程)

零基础入门AI Agent完全指南——从小白到高手的7步进阶之路
你是否也曾面对复杂的AI Agent项目,却只能照着README文档傻傻使用?这篇文章将帮你彻底打破这一局面,轻松掌握AI Agent开发技能!从核心概念到实战框架,一文打尽!
Ollama + WebUI 搭建本地大模型(附ollama安装包)
Ollama 作为目前最主流的大模型管理工具,已经是玩转大模型必不可获取的一步。无论你是刚刚接触大模型的新手,还是已经有一定经验的老手,这篇文章都将带你一步一步地了解如何轻松地在本地部署大模型。

无需高配电脑!Qwen2.5-72B居然被我用4GB破显卡本地跑通了
今天要挑战用我的4GB老显卡不做量化、不做压缩,看看能不能跑起来这个72B模型。

一文搞懂大模型部署Ollama和vLLM
Ollama是一款专注于简化大型语言模型本地部署和运行的开源框架,基于Go语言实现,支持跨平台运行,并以“开箱即用”为核心理念,适合个人开发者和轻量化场景。

WPS免费使用Deepseek,让你的效率提升300%
想必不少朋友都在纠结如何在WPS中使用DeepSeek,也被那些安装deepseek的插件教程弄得晕头转向。








