
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文阐述研发数字化转型的智慧革命阶段,强调知识是智慧研发的主驱动力。通过AI+知识工程,将研发知识增值加工为智能体,实现即插即用和深度应用。DIKW模型展示了从数据到智慧的转化路径,三层知识工程体系为实践提供框架,最终通过智慧研发模型与平台实现研发体系智能化升级,提升企业创新能力和可持续发展能力。

本文阐述研发数字化转型的智慧革命阶段,强调知识是智慧研发的主驱动力。通过AI+知识工程,将研发知识增值加工为智能体,实现即插即用和深度应用。DIKW模型展示了从数据到智慧的转化路径,三层知识工程体系为实践提供框架,最终通过智慧研发模型与平台实现研发体系智能化升级,提升企业创新能力和可持续发展能力。

本文详细介绍了多模态大模型的架构与训练方法,重点讲解了视觉-语言模型(VLM)和语音-语言模型(SLM)。VLM包括对比学习、掩码预测、生成式学习和映射学习四种训练思路;SLM探讨了输入输出模式、语音表示方法及语音文本融合架构。这些模型结合不同模态信息,使AI具备看图说话、听懂回答等接近人类的能力,为人机交互提供了更自然的方式。

文章详细解析了FlashAttention和PagedAttention两种大模型推理加速技术。FlashAttention通过分块计算和重计算机制将内存访问次数从O(n²)降至O(n),显著提升计算效率;PagedAttention借鉴操作系统虚拟内存思想,将KV Cache分割为固定大小页面,通过逻辑页表映射管理非连续显存,解决碎片化问题。两者分别从计算效率和内存管理两个维度优化大模型推理性能

本书主要面向希望系统学习大语言模型技术的读者,将重点突出核心概念与算法,并且配以示例与代码(伪代码)帮助读者理解特定算法的实现逻辑。由于大语言模型技术的快速更迭,本书无法覆盖所有相关内容,旨在梳理最具代表性的基础知识内容,帮助读者更好地了解大语言模型技术的核心知识点,能够快速上手相关的科研与工程项目。本书适用于具有深度学习基础的高年级本科生以及低年级研究生使用,可以作为一本入门级的参考资料。下载当

Transformer, BERT, and GPT: Including ChatGPT and Prompt Engineering, 出版于2023年11月,作者是奥斯瓦尔德·坎佩萨托(Oswald Campesato)奥斯瓦尔德·坎佩萨托( Oswald Campesato ):专门研究深度学习、Java、Android和TensorFlow。

统计语言模型通过概率分布的形式来描述任意语句(字符串)s属于某种语言集合的可能性。给定一个句子W(由多个单词w1, w2, w3,...组成),统计语言模型的目标是计算该句子在文本中出现的概率P(W),即P(W) = P(w1, w2, w3,..., wn)。这一概率的计算通常基于统计学方法,如最大熵模型、N-gram模型等。

RAG应用中文本分块是连接知识存储与检索生成的关键预处理步骤,直接影响检索效率、相关性和生成质量。合理分块可提升检索精准度,优化计算效率,为LLM提供精准上下文,并适配长文档处理。文章介绍了TokenTextSplitter、SentenceSplitter等分块策略,以及固定长度、递归、结构化和标点分块等方法,强调需在信息完整性与聚焦性间找到平衡,选择适合应用场景的分块策略,是构建高效RAG系统

本文深入解析AI Agent开发的三大核心痛点:知识库构建与维护、工作流设计和Prompt工程。知识库部分详解从收集到更新的全流程,介绍向量与图数据库混合架构;工作流部分阐述任务自动化的循环-反思机制;Prompt工程部分聚焦角色设定、示例设计和输出格式控制。

文章详细介绍了Context Engineering(上下文工程)的概念,它与传统Prompt Engineering的区别在于处理来自机器的动态上下文信息。文章探讨了Context Engineering面临的挑战,包括System Prompt设计、上下文获取和质量控制,以及long context导致的性能下降问题。针对这些挑战,提出了五种核心策略:Offload(卸载到外部存储)、Retr
