
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Ollama v0.12.0推出云端模型预览功能,支持qwen3-coder、gpt-oss和deepseek等超大模型运行,无需担心本地显存限制。新增BERT和Qwen 3系列模型支持,优化了GPU兼容性与API行为,完全兼容OpenAI接口。开发者可通过CLI、JavaScript、Python等多种方式调用云端模型,实现本地与云端无缝协同,为本地硬件不足的开发者提供了解决方案。

文章介绍了deepagents Python包,用于构建"深度"智能体以解决传统"大模型+循环调用工具"架构在复杂任务中的局限性。该包通过四个核心组件增强智能体能力:规划工具帮助先思考后执行,子智能体实现任务拆分,文件系统保留上下文,详细提示词指导工作流程。文章提供了安装指南、使用示例、自定义方法、模型配置和内置工具说明,并指出其适合深度研究、代码助手、数据处理和流程自动化等场景。建议从小规模开始

MoE(混合专家)架构通过"分工合作"和"按需调用"解决传统大模型计算成本高和参数效率低的问题。该架构包含专家网络(多个小型专业神经网络)和门控网络(决定调用哪些专家及其权重)。MoE的优势在于:1)参数量大但计算量小(稀疏激活);2)更高的模型容量;3)专业化分工。这种技术使大模型既能保持强大能力,又能降低计算成本,是构建超大规模语言模型的重要技术之一。

这波AI浪潮,很多新词把人都绕晕了,如AI Agent(人工智能代理)、RAG(检索增强生成)、向量知识库、提示词工程、数据提取和解析、自然语言处理(NLP)、知识图谱以及图处理等。本文试图深入探讨这些概念,让大家一下子就能分辨。同时,我试图让他们在AI PaaS(平台即服务)概念框架下整合,便于理解这些异构的概念。

这篇文章综述了大型语言模型(LLM)在医疗领域的应用、挑战及发展趋势。LLM通过高级的自然语言处理能力,能够理解和生成类似人类的语言,从而在提取电子健康记录、个性化治疗计划以及辅助诊断等方面显示出强大的潜力。然而,LLM的应用也伴随着一系列挑战,包括数据偏见、对人类监督的需求增加以及可能对医疗专业人员产生的影响等。文章强调了在医疗实践中使用LLM时需要考虑的伦理和法律问题,例如患者隐私和数据保护。

大语言模型(LLM)如 ChatGPT 和 GPT-4 虽推动了自然语言处理研究,但在医疗等专业领域应用时面临局限。一是部署和微调困难,二是易产生幻觉且推理能力不足。检索增强生成(RAG)技术虽有进展,但仍需改进。本文提出的 MedGraphRAG 旨在解决这些问题,通过构建分层图谱结构和独特检索策略,提升 LLM 在医疗领域性能,增强结果的可靠性与可解释性。

国内的大型模型已经进入了一个显著的成长阶段。不仅模型的数量呈现出爆炸式的增长趋势,而且模型的质量也在持续提升。随着首批国产大型模型完成备案并向公众开放,这些模型正在越来越多地进入用户的视野和认知中。据最新统计数据显示,在目前的市场上,GPT 系列大型模型和百度文心大型模型已经稳居第一梯队,受到了广泛的关注和应用。近半数的受访开发者表示,他们了解或使用过这两款模型,这充分证明了它们在行业内的领先地位

本文详细介绍阿里通义DeepResearch架构,通过三层设计(任务规划层、执行层、知识与工具层)解决企业大模型落地的四大痛点:业务技术衔接、长尾需求覆盖、工具安全限制及效果成本平衡。该架构采用多智能体协作模式,结合通用与垂直模型,通过迭代优化和业务友好设计,实现AI从"对话助手"到"业务伙伴"的进化,并提供四阶段落地方法论,助力企业将AI从实验室引入生产线。

本文详细介绍了基于人类反馈的强化学习(RLHF)在大模型训练中的应用。阐述了RLHF的两大核心步骤:奖励模型训练和近端策略优化,以及如何通过3H原则(有用性、真实性、无害性)指导模型生成符合人类价值观的输出。同时介绍了奖励模型的训练方法、数据收集方式和KL散度惩罚机制等技术,帮助读者理解如何让大模型更好地遵循人类偏好。

文章系统梳理了LLM推理系统的核心挑战与解决方案,形成"内存管理-系统架构"双线优化框架。内存管理层面包括分页内存分配、驱逐与卸载、量化技术和缓存持久化;系统架构层面涵盖前端接口设计和运行时架构(单副本/多副本、单体式/解耦式/无服务器式)。文章指出当前量化策略依赖试错、解耦架构调度矛盾等问题,并提出未来需构建量化理论框架、设计动态负载感知调度机制、实现请求级内存分配与缓存合并协同等方向。
