
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
如何估算微调(Fine-tuning)一个X B(比如X=1,即十亿)参数的大模型所需显存(VRAM)?精确估计比较难,因为它受到多种因素的影响。这里我们分全参数微调和LoRA微调两种情况来讨论,并给出估算方法和一些经验法则。

作为一个长期在 AI 领域摸爬滚打的博主,我最近可是在 Dify 的使用上有了新发现!你们都知道,在和 AI 交互的时候,文字回答虽然简洁明了,但要是能配上图片和表格,那效果简直翻倍。就拿我上次整理旅游攻略来说,单纯的文字介绍让景点和路线显得很抽象,可一旦加上景点的图片和行程安排的表格,整个攻略瞬间就生动形象起来了,不仅看起来更直观,理解和记忆也变得轻松多了。 相信大家在使用 Dify 的过程中,

随着人工智能技术的迅猛发展,大模型逐渐成为推动各行业智能化转型的核心动力之一。大模型不仅可以处理大量数据,进行复杂任务的自动化,还能通过微调、蒸馏等技术在特定场景中表现出色。本文将结合大模型产品架构图,详细解读每一个组成模块,帮助读者理解从应用场景到技术支持的完整路径,洞察大模型如何在实际业务中落地。

检索增强生成 (RAG) [1] 是一种允许 LLM 访问外部知识库的技术。通过上传 PDF 文件并将其存储在矢量数据库中,我们可以通过矢量相似性搜索检索这些知识,然后将检索到的文本作为附加上下文插入到 LLM 提示中。这为LLM提供了新的知识,并减少了LLM编造事实(幻觉)的可能性。

Qwen3是阿里巴巴Qwen团队最新发布的开源大语言模型,提供具有竞争力的性能,高度模块化和工具使用能力。在本指南中,我将向您展示如何通过Ollama在本地运行Qwen3,并启用MCP(模型上下文协议)工具功能,如代码解释器、网络获取和时间查询。

RAG在生成式AI领域取得了重大进展,用户可以将自己的个人文档,比如文本文件、PDF、视频等,与大型语言模型(LLMs)连接起来进行互动。最近,RAG的进阶版GraphRAG也亮相了,它通过知识图谱和LLMs来执行RAG的检索任务。

使用cursor等软件总是遇到调用次数限制的问题,用一阵就不能再使用了。于是,就希望能够通过Ollama来使用本地部署的代码大模型。然后就找到了twinny这个vscode的插件。twinny插件配置简单,使用方式简介,一安装就知道如何使用了,很是方便。

学校情况:211本中9硕,本硕都是计算机科班,但研究方向并不是NLP,而是图表示学习论文情况:1A(NeurIPS)+1B(ICDM)已发表,另有1A刊在投,除此之外,还有1A会撰写中,所有论文均为一作实习情况:一段快手推荐算法实习奖学金情况:本硕国家奖学金。

这篇教程总结了自己电脑搭建大模型的步骤,以及自动调用大模型API的步骤。最后说一下电脑所需要的配置,一般来说安装上面尺寸的大模型目前电脑都可以,不过大模型回答你的速度会有区别,电脑带有GPU显卡且显存大于等于8G的回答会比较流畅,低于这个配置的就会有些卡顿,但是不至于不能使用。为了帮助更多热爱技术、渴望成长的朋友,我特别整理了一份涵盖大模型领域的宝贵资料集。这些资料不仅是我多年积累的心血结晶,也是

神经网络语言模型(Neural Network Language Model, NNLM)是一种利用神经网络架构来预测文本序列中下一个词的语言模型。NNLM通过学习大量文本数据中的词汇之间的概率关系,能够捕捉到语言的结构和语境,从而生成连贯且符合上下文的文本。本文旨在结合经典论文《A Neural Probabilistic Language Model》的内容,详细解析NNLM的基本原理、网络架








