
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
小白也能懂!知识图谱构建全流程与大模型应用指南

文章介绍了AI Agent(智能体)的底层逻辑和工作原理。AI应用正从简单的聊天助手进化为全能助理,其核心是"思考→行动→观察"的循环过程。Agent由大模型(大脑)、工具(手脚)和基本循环(流程)组成。文章提供了三个实用技巧:帮助Agent思考、提供精确的背景信息、创新式使用工具。理解这些原理能帮助用户更好地驾驭AI工具,发挥其最大效能。

LoRA是一种高效的大模型微调方法,通过低秩分解在原始模型旁增加可学习矩阵,显著降低显存需求并保持与全参数微调相近的效果。文章详细介绍了LoRA原理及其多种变种,如QLoRA(4bit加载)、LoRA+(不同学习率)、AdaLoRA(动态调整秩)、DoRA(分解大小和方向)等。这些方法在保持模型性能的同时,进一步优化了训练效率和资源消耗,成为大模型参数高效微调(PEFT)的重要研究方向,在工程界得

PEFT(Parameter-Efficient Fine-Tuning)是一种在保持预训练模型大部分参数不变的情况下,通过仅调整少量额外参数来适应新任务的技术。这些额外参数可以是新添加的嵌入层、低秩矩阵或其他类型的参数,它们被用来“引导”或“调整”预训练模型的输出,以使其更适合新任务。

开始之前,为了方便大家理解,我们先对大模型做一个直观的抽象。输入序列 X = [x1, x2, …, xm], 输出序列Y = [y1, y2, …, yn],X和Y之间的关系是:Y = WX。我们所说的“大模型”这个词:“大”是指用于训练模型的参数非常多,多达千亿、万亿;而“模型”指的就是上述公式中的矩阵W。在这里,矩阵W就是通过机器学习,得出的用来将X序列,转换成Y序列的权重参数组成的矩阵。这

本文介绍了Google的NotebookLM及其开源替代品Open Notebook。该工具支持16种AI模型,可在本地部署,保障数据隐私,支持多种格式导入,具备灵活权限控制和多角色语音功能。文章提供详细Docker部署方法,对比两个工具的优缺点,为追求数据安全和离线运行需求的用户提供了理想选择。

本文介绍了一本全面讲解大模型训练的新书,特别强调企业级模型训练的实践方法,涵盖分布式训练、并发处理等关键技术。书籍从大模型发展历史、理论基础、训练方法到架构演进均有详细阐述,理论与实践紧密结合,图文并茂保证可读性,适合想深入了解大模型训练的程序员和小白读者。

谷歌提出嵌套学习(NL)新范式,将模型结构视为嵌套优化问题的组合,突破传统LLMs无法持续学习的局限。基于NL开发了深度优化器、自修正Titans和持续体记忆系统三大核心成果,构建出HOPE学习模块。实验表明,HOPE在语言建模、持续学习和长上下文推理等任务中表现优异,为实现真正具备持续学习能力的下一代大模型提供了可行路径。

所谓指令微调,无非是采用指令问答数据集,通过一些格式化的整合合并(加入Human-Assistant引导词,eos,bos等),在Transformer架构上进行自回归的有监督训练,利用当前位置及之前的token,预测序列下一个token。整体网络架构非常标准,并无太多晦涩之处。唯一比较繁琐的是,理解对指令文本(字符串形式)的一系列操作,如何转化成数值向量输入模型,包括:分词,过长截断,paddi

本文详细介绍了几种高效微调方法的原理解析和实验效果对比,并基于Unsloth做了一些微调加速的实践尝试。实验效果显示结合优秀的低参微调方法和微调加速,完全可以做到极为高效的微调大模型,可以在极低的资源占用上得到媲美全参微调的效果。。








