
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。以学习完整的建模过程为主要目标,以了解常用机器算法(优缺点,原理,步骤,应用)和学习建模工具(以大模型平台应用与开发为主,通过星火大模型,

Agent”是一个跨学科的概念,涵盖了哲学、计算机科学、经济学、生物学等多个领域。尽管定义和应用范围各异,代理的核心特征在于其自主性、感知和决策能力,以及目标导向的行动能力。理解代理在不同领域中的具体应用和特征,有助于更全面地认识和利用这一概念。哲学领域中的Agent在哲学中,Agent通常指具有意图和行动能力的个体或实体。意图性(Intentionality):代理的行动是基于某种目标或意图的、

人工智能是指通过模拟、延伸人类智能的机制,使机器能够执行需要智力的任务。这包括理解语言、学习、推理、问题解决等能力。人工智能系统通过算法和模型从大量数据中学习,并能够做出智能决策。人工智能的核心在于算法和模型,这些算法和模型能够处理、分析和解释数据,以模拟人类的智能行为。通过不断的学习和优化,人工智能系统能够逐渐提升其性能,以更好地完成各种任务。概念:机器学习是人工智能的一个重要分支,其核心思想是

总体而言,现在大模型的确还存在着这样或那样的一些问题,但是谁又能说,现在的大模型不是爱迪生发明的第一盏电灯呢,虽然有着各种的不足,但是这指明的是未来的方向。

本文详细介绍了11种大型语言模型的参数高效微调方法,包括前缀调优、提示调优、LORA及其变体、QLORA、LongLORA等。这些方法通过冻结预训练模型参数,仅优化少量特定参数或采用量化技术,显著减少微调时的计算资源消耗,同时保持模型性能,为大型语言模型的高效应用提供多种解决方案。

是一种高效的参数高效微调方法,其核心思想是通过在预训练模型的权重矩阵中引入低秩适配矩阵(低秩分解矩阵 A 和 B),仅对这部分新增参数进行训练,从而大幅减少计算和显存开销。与传统全参数微调相比,LORA 通过冻结原始模型参数,仅更新适配层参数,实现了轻量化训练。在涉及到矩阵相乘的模块,在原始的PLM旁边增加一个新的通路,通过前后两个矩阵A,B相乘,第一个矩阵A负责降维,第二个矩阵B负责升维,中间层

批量大小指的是在每个训练步骤(epoch)中同时处理的样本数量。在大语言模型中,由于模型规模庞大,批量大小通常会较大。

文章介绍了大模型压缩的两大主流技术:量化(降低参数精度减少存储空间)和蒸馏(训练小模型模仿大模型行为)。量化技术实施简单、压缩效果明显,而蒸馏能获得全新小模型、灵活性更高。这些技术能在保持模型性能的同时显著降低部署成本,让AI技术更加平民化,对开发者部署和设计AI应用具有重要意义。

文章介绍了大模型压缩的两大主流技术:量化(降低参数精度减少存储空间)和蒸馏(训练小模型模仿大模型行为)。量化技术实施简单、压缩效果明显,而蒸馏能获得全新小模型、灵活性更高。这些技术能在保持模型性能的同时显著降低部署成本,让AI技术更加平民化,对开发者部署和设计AI应用具有重要意义。

本文介绍了大模型Agent开发的演变过程,包括通过提示词使大模型输出格式化内容融入程序,工作流的基本概念,MCP协议如何扩展模型能力,以及Dify、Coze等工作流平台。重点阐述了Agent的核心特点——自主性,包含Profile、Memory、Planning、Action四个组成部分,能够主动思考并调用工具解决问题,实现了类似人类的任务处理流程。








