logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

震惊!原来RAG与大模型无关?大模型技术边界深度解析,小白程序员必看!

本文深入解析大模型能力边界,澄清RAG、Function Call等技术并非大模型本身功能,而是可插拔的扩展组件。大模型核心在于思维链等分析推理能力,而Function Call和MCP仅是调用外部接口的工具。理解这一方法论对AI开发者至关重要,能帮助分清模型、功能与工具的区别,避免在应用开发中迷失方向,更高效地利用大模型解决实际问题。

文章图片
#人工智能#开源#microsoft +1
大模型Agent开发必踩的坑!意图识别“抽风“怎么办?小白程序员的救命指南,附解决方案代码

大模型智能体开发中的意图识别不准确问题导致函数调用错误,严重影响Agent质量。问题源于模型无法准确判断用户需求,在复杂场景下更易出错。解决方案包括:使用精确描述减少歧义;通过多轮对话明确需求;引入分类模型辅助判断;设计规则引擎进行兜底处理。技术实现需结合具体场景优化,而非完全依赖模型本身。

文章图片
#人工智能#开源#microsoft +1
决定大模型生死的不是算法,是提示词!深度解析Prompt工程的重要性(建议收藏)

提示词是大模型与外界交互的唯一通道,因此提示词的重要性远比我们想象中的要重要。提示词或者说提示词工程,说起来可能大家多多少少都知道是怎么回事;但可能很多人并没有意识到提示词工程对大模型的重要性。提示词是人与大模型沟通的桥梁,就像我们要想使用电脑就离不开鼠标键盘一样;不管你是做AIGC也好,做RAG、Agent也罢,或者其它任何与大模型相关的技术或应用,都离不开提示词的存在。总之一句话,任何关于大模

文章图片
#算法#机器人#性能优化 +3
你了解大模型的生态体系吗?大模型从技术到应用的内容梳理

本文系统梳理了神经网络大模型的技术体系与应用场景。首先明确大模型本质是参数庞大的神经网络,属于深度学习范畴。文章解析了神经网络与不同技术领域的结合方式:在NLP领域形成ChatGPT等语言模型,在CV领域产生Sora等视觉模型,并介绍了Transformer、RNN等典型架构。同时区分了单模态与多模态模型的特点,指出NLP任务因语义复杂性更具挑战性。在应用层面,重点介绍了Agent技术如何使大模型

文章图片
#react.js#人工智能#搜索引擎 +2
小白必看!三步搞定文本预处理,大模型入门不再愁!NLP基础干货,手把手教你把文字变向量

文本序列化是自然语言处理的关键预处理步骤,主要包括分词、构建词汇表和向量化三个环节。由于计算机只能处理数字,文本需转化为多维矩阵形式:首先通过分词将句子拆分为词单元,再建立词汇表实现文字到数字的映射(含UNK和PAD特殊标记),最后通过Word Embedding等技术将数字序列转为向量。该过程解决了文本长度不一、生僻字处理等问题,为神经网络输入提供标准化数据格式。掌握这一技术对AI从业者至关重要

文章图片
#自然语言处理#easyui#人工智能 +4
大模型训练必读:数据预处理超详细教程,原理+实战,看完这篇才算真正入门!

数据预处理是神经网络模型训练的关键环节,直接影响模型性能。原始数据常存在异常值、缺失值、格式不一致、冗余等问题,需通过数据清洗、转换和压缩三个核心步骤处理。数据清洗需处理重复、杂乱、不完整等数据;数据转换涉及格式统一和特征工程;数据压缩则解决维度灾难。高质量数据集是模型成功的基础,不同场景需采用针对性的预处理策略。随着AI技术发展,掌握数据处理等核心技能将成为从业者的竞争优势。

文章图片
#人工智能#机器学习#开源 +2
收藏级干货!Graph Builder终极指南:从PDF/视频到知识图谱,5步构建企业级智能知识库!

在 ContextClue,我们的使命非常明确:让企业的知识真正可用。我们亲身体会到,各种组织是如何被零散、孤立的信息所困扰的——无论是工程师团队被堆积如山的操作手册淹没,合规官员深陷规章制度的泥沼,还是业务团队在不同格式的报告之间疲于奔命。

文章图片
#知识图谱#人工智能#产品经理 +3
【多模态RAG实战】从0到1手把手教学,附完整可运行代码,收藏这篇就够了!

RAG系统作为减少大模型幻觉以及提供更多垂类专业知识的系统,实现在很大范围之内被使用,目前也有非常多的研究以及系统在支持多模态内容和知识的RAG,本文介绍了主体的RAG实现的思路,并附上完整的代码,通过阅读本文,你能够了解:

文章图片
#人工智能#microsoft#transformer +2
【保姆级实战】Teacher-Student知识蒸馏,从入门到精通,把大模型“传功”给小模型,收藏这篇就够了!

知识蒸馏 (Knowledge Distillation, KD)在深度学习中并不是一个新概念,但在 LLM 中,它却有新的含义:通常被称为“数据蒸馏” (Data Distillation)或 “合成数据训练” (Synthetic Data Training)。假如你是一个初学者(,如 Qwen3-8B),你想学会解复杂的奥数题。只给你看《习题集》和最后的参考答案你能死记硬背这道题选 A,但稍

文章图片
#java#android#redis +1
从蒸馏到上线,一条龙服务!用LLaMA-Factory微调金融大模型,并一键发布ModelScope!

在大模型“平民化”的今天,如何低成本打造一个**垂直领域专用小模型**?本文将完整复盘我们基于 **宏观与金融知识蒸馏数据集**,使用 **LLaMA-Factory** 对 Qwen2.5-0.5B 进行微调,并发布至 **ModelScope(魔搭)** 的全流程。全程开源、可复现,涵盖训练、导出、量化、部署四大环节,构建了一条完整的轻量级模型生产线。

#金融#人工智能#前端 +3
    共 1737 条
  • 1
  • 2
  • 3
  • 174
  • 请选择