
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在大语言模型(LLM)的微调过程中,强化学习(RL)扮演着至关重要的角色。传统的近端策略优化(PPO)算法虽然被广泛应用于LLM的微调,但其在处理大规模模型时面临着巨大的计算和存储负担。PPO算法需要维护一个与策略模型大小相当的价值网络来估计优势函数,这在大模型场景下会导致显著的内存占用和计算代价。例如,在数十亿甚至千亿参数的语言模型上应用PPO时,价值网络的训练和更新会消耗大量的计算资源,使得训

Mini-SGLang的推理主线非常清晰:模型结构搭起整体的骨架,layers组织各类算子。而算子在forward过程中,会调度attention后端(FlashAttention/FlashInfer)和kernel完成计算。其中attention后端承担了大部分核心计算,kernels则聚焦于那些“碎小但高频”的底层操作——比如embedding的indexing、KV cache的写入、Ra

Mini-SGLang的推理主线非常清晰:模型结构搭起整体的骨架,layers组织各类算子。而算子在forward过程中,会调度attention后端(FlashAttention/FlashInfer)和kernel完成计算。其中attention后端承担了大部分核心计算,kernels则聚焦于那些“碎小但高频”的底层操作——比如embedding的indexing、KV cache的写入、Ra

2026年除夕,阿里巴巴在全球开发者的瞩目下,正式发布新一代Qwen3.5-Plus旗舰开源模型,这一发布不仅是一次常规的版本迭代,更是通义千问系列从纯文本模型向原生多模态模型的代际跃迁,标志着阿里在大模型领域的技术布局进入全新阶段。

你是否曾经为处理大量文档而烦恼?是否希望有一个智能助手,能够快速回答你关于文档的任何问题?今天,我将分享一个完整的实战案例,教你如何从零开始搭建一个基于RAG 技术的智能问答系统。

企业一谈AI转型,通常第一反应是:我们要不要上一个更强的大模型(LLM)?要不要换成最新的大模型?好像谁用的模型更大、更先进,谁就站在了时代的风口。但说句实在话,LLM 很重要,却不是企业智能化的核心竞争力。

政府机构是复杂的关系网络,传统数据库难以捕捉数据间的关联性。图技术通过显式建模实体关系,为AI提供必需的上下文,使其从概率性回答转向精准的、可追溯的决策支持。本文探讨图数据库如何成为智能代理系统的知识引擎,助力政府机构实现任务驱动的智能化转型 。

在知识图谱构建完成后,GraphRAG会使用社区检测算法(如Leiden算法等)来识别图谱中紧密相关的实体组(社区)。

多模态提示技术为我们开启了一个令人兴奋的新领域,使AI能够更全面地理解和处理复杂的真实世界信息。通过本文介绍的技术和最佳实践,你应该能够开始构建强大的多模态AI应用。然而,多模态AI仍然面临着许多挑战,需要我们不断创新和改进。随着技术的进步,我们期待看到更多令人惊叹的多模态AI应用,这些应用将帮助我们更好地理解和交互with我们的复杂世界。

针对电商行业商品识别效率低、仓储分拣自动化不足、个性化推荐精准度差等痛点,京东云计算有限公司自研了众智标注平台与言犀、ViTAE大模型,并构建“标-训-推”一体化数据处理模式,覆盖商品内容生成、智能仓储、数据治理等核心场景。实现了电商全链路降本增效,累计节省内容审核成本超千万元,带动近百亿GMV(商品交易总额)增长。同步建成宿迁数据标注基地,形成百亿级数据产业集群,为行业提供“技术+产业+人才”三








