
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
“ 自然语言处理是一门让机器理解人类语言的技术,是人和机器交流的桥梁 ”自然语言处理(Natural Language Processing, NLP)是人工智能(AI)的一个分支,旨在让计算机能够理解、生成和处理人类的自然语言(如中文、英文)。NLP 的目标是让计算机能够像人类一样理解和使用语言,从而实现人机自然交互、自动化信息处理等功能。

Ollama—— 这是一个专为本地部署优化的 AI 模型。Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。这无疑是 AI 大模型的一次重大突破!

如果要使用的模型不在 Ollama 模型库怎么办?至此,我们一起走完了 Ollama 的部署和实战流程。在我看来,Ollama 也许是目前最便捷的大模型部署和使用工具,对小白非常友好。简单的命令行操作,用户即可快速启动和管理模型,极大降低了技术门槛,用户可以专注于模型的应用,而无需关注底层技术细节。此外,Ollama 的离线运行也为数据安全提供了保障。期待大家在使用 Ollama 的过程中,发现更

如何估算微调(Fine-tuning)一个X B(比如X=1,即十亿)参数的大模型所需显存(VRAM)?精确估计比较难,因为它受到多种因素的影响。这里我们分全参数微调和LoRA微调两种情况来讨论,并给出估算方法和一些经验法则。

作为一个长期在 AI 领域摸爬滚打的博主,我最近可是在 Dify 的使用上有了新发现!你们都知道,在和 AI 交互的时候,文字回答虽然简洁明了,但要是能配上图片和表格,那效果简直翻倍。就拿我上次整理旅游攻略来说,单纯的文字介绍让景点和路线显得很抽象,可一旦加上景点的图片和行程安排的表格,整个攻略瞬间就生动形象起来了,不仅看起来更直观,理解和记忆也变得轻松多了。 相信大家在使用 Dify 的过程中,

随着人工智能技术的迅猛发展,大模型逐渐成为推动各行业智能化转型的核心动力之一。大模型不仅可以处理大量数据,进行复杂任务的自动化,还能通过微调、蒸馏等技术在特定场景中表现出色。本文将结合大模型产品架构图,详细解读每一个组成模块,帮助读者理解从应用场景到技术支持的完整路径,洞察大模型如何在实际业务中落地。

检索增强生成 (RAG) [1] 是一种允许 LLM 访问外部知识库的技术。通过上传 PDF 文件并将其存储在矢量数据库中,我们可以通过矢量相似性搜索检索这些知识,然后将检索到的文本作为附加上下文插入到 LLM 提示中。这为LLM提供了新的知识,并减少了LLM编造事实(幻觉)的可能性。

Qwen3是阿里巴巴Qwen团队最新发布的开源大语言模型,提供具有竞争力的性能,高度模块化和工具使用能力。在本指南中,我将向您展示如何通过Ollama在本地运行Qwen3,并启用MCP(模型上下文协议)工具功能,如代码解释器、网络获取和时间查询。

RAG在生成式AI领域取得了重大进展,用户可以将自己的个人文档,比如文本文件、PDF、视频等,与大型语言模型(LLMs)连接起来进行互动。最近,RAG的进阶版GraphRAG也亮相了,它通过知识图谱和LLMs来执行RAG的检索任务。

使用cursor等软件总是遇到调用次数限制的问题,用一阵就不能再使用了。于是,就希望能够通过Ollama来使用本地部署的代码大模型。然后就找到了twinny这个vscode的插件。twinny插件配置简单,使用方式简介,一安装就知道如何使用了,很是方便。








