
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
知识蒸馏是将大模型(教师)能力传递给小模型(学生)的技术,分为白盒(访问内部结构,优化KL散度)和黑盒(仅通过输入输出学习)两种方式。这种方法能在保持高性能的同时大幅减少计算资源消耗,特别适合移动设备和嵌入式系统,是当前大模型优化的重要技术。

如果你真的想学习大模型,请不要去网上找那些零零碎碎的教程,真的很难学懂!你可以根据我这个学习路线和系统资料,制定一套学习计划,只要你肯花时间沉下心去学习,它们一定能帮到你!

贡献我们提出了第一个适用于医学领域的多模态少样本学习器,它有望实现新颖的临床应用,例如基于检索到的多模态上下文的基本原理生成和调节。我们创建了一个新颖的数据集,可以对一般医学领域的多模态少样本学习器进行预训练。我们创建了一个新颖的 USMLE 式评估数据集,将医学 VQA 与复杂的跨专业医学推理相结合。我们强调现有评估策略的缺点,并使用专用的评估应用程序与医疗评估员一起对开放式 VQA 世代进行深

本文深入剖析了7种AI Agent形态,从单体到复合,再到端侧,详细阐述了每种形态的运作机制、适用场景及局限性。区别于普通AI工具,Agent具备感知环境、自主推理、决策和执行能力,适用于不同复杂度的任务。文章强调,AI产品选型需根据任务复杂度、自主性需求和隐私延迟约束,而非盲目追求高自主性。通过本文,读者能清晰判断各类AI产品所属形态及能力层级,为产品开发提供实用指导。

本文介绍了AI领域三个主要发展方向:AI应用开发工程师、AI Agent开发和AI全栈开发。AI应用开发工程师侧重集成AI能力解决业务问题;AI Agent开发则关注创建能自主执行任务的智能体;AI全栈开发则涵盖从数据处理到应用交互的完整流程。文章详细阐述了每个方向的核心职责、技能要求及适合人群,并给出转型建议,鼓励程序员小白利用现有优势,从AI应用开发入手,快速切入AI领域。

本文深入浅出解析AI大模型(如Claude、GPT)的核心机制,从“预测下一个词”的基本原理出发,逐步揭示Token、向量、神经网络、Transformer架构等关键技术。文章避免了复杂的数学公式,以清晰的逻辑和实例讲解LLM如何理解语言、学习知识,并涵盖训练过程、提示词工程、RAG、Agent等前沿应用。特别介绍Anthropic的Constitutional AI创新路径,以及Openclaw

★我们平时使用的等Ai对话工具,其服务器都是部署在各家公司的机房里,如果我们有一些隐私数据发到对话中,很难保证信息是否安全等问题,如何在保证数据安全的情况下,又可以使用大语言模型,Ollma(哦拉玛)可以告诉你答案!

推理是智能的核心,它塑造了决策、得出结论以及在不同领域进行泛化的能力,大语言多模态推理模型(LMRMs) 作为一种有前景的范式应运而生,提出了一个全面且结构化的多模态推理研究综述,围绕一个四阶段的发展路线图展开:

这块主要参考自https://tianchi.aliyun.com/dataset/145784本文主要介绍了多模态RAG中的embedding,看有哪些主流的开源模型,然后顺便看看图文对数据集,这些都可以多看看。

如果说2023年见证了大语言模型的“寒武纪大爆发”,那么2024年则是多模态大模型“元年”。GPT-4o的出现让大家见识到多模态能力引入,给下游应用生态带来的巨大改变。随之而来的,RAG技术也将逐渐从单语言模态的RAG进化到多模态RAG。本文将带大家速览多模态RAG技术的原理及实现。








