logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI大模型的那些事儿

抛开清华博士割韭菜这件事儿,中美在人工智能领域存在的巨大差距。大型语言模型的概念实际上数年前就已提出,但直到去年,谷歌和OpenAI才取得了重大突破,引领了市场的热潮。随后,各种语言模型和人工智能应用开始迅速涌现,技术迭代频繁,吸引了大量付费用户和免费试用者。如果将人工智能比作一台电脑,那么英伟达的显卡就是基础设备,提供必要的算力来支持原创的大型模型运行。这些模型,就像Windows或macOS这

文章图片
#人工智能#学习#语言模型 +1
DMR架构演进:vLLM集成后的大模型容器化部署新范式

本文介绍了Docker Model Runner (DMR)如何通过原生集成vLLM后端,从实验特性转变为生产级组件。DMR采用双轨路由机制,支持GGUF(开发环境)和Safetensors(生产环境)两种格式,遵循"显式优于隐式"的工程哲学。与Ollama相比,DMR提供更确定性的模型精度控制和基础设施即代码(IaC)集成,使企业能够以标准化、容器化的方式构建LLM基础设施,降低运维认知负担。

文章图片
#人工智能#java
LLM学习:大模型架构要点总结

LLM本身基于transformer架构。前排提示,文末有大模型AGI-CSDN独家资料包哦!通常认为参数量超过10B的模型为大语言模型。由于参数量巨大,需要的训练数据量也极多,因此目前大部分的使用方式为:大公司整理大量常用数据集,训练一个各方面性能还不错的通用大模型,小公司在此通用模型上搜集小规模行业数据进行微调,最终得到行业专有模型/领域模型。当然,如果通用模型能直接拥有各行业知识是最好的,但

文章图片
#学习#android#语言模型 +2
关于大模型微调与训练的问题,大模型训练的难点在哪里?

大模型训练的难点不在于大模型本身,而在于训练数据今天讨论一下大模型的训练问题,大模型训练的难点到底在哪里?大模型训练的难点对大部分学习大模型技术的人来说,大模型训练和微调可能都是一个无法绕过的问题,也是很多人弄不明白的问题,总认为由于没有足够的算力,个人无法进行模型训练。但事实上有这种想法的人是进入了一个误区,原因是对大模型不够了解,认为大模型的难点就在于训练。‍‍‍‍‍‍‍大家都知道目前市面上的

文章图片
#人工智能#机器学习#数据库 +1
AI Agent记忆系统全面解析:形态-功能-动力学三维框架详解

这篇由多所顶尖大学联合出品的综述,采用"形态-功能-动力学"三维框架分析200+最新论文,提出Token-level/Parametric/Latent三大记忆形态。内容涵盖记忆形式化定义、三大功能、生命周期管理及7大前沿方向,提供30个评测集和20+开源框架,是AI Agent记忆系统学习的必读资料。

文章图片
#人工智能#python
AI Agent从Demo到生产:企业级基础设施平台AgentRun全攻略

阿里云函数计算AgentRun是面向企业级AI Agent的一站式基础设施平台,旨在解决从原型到产品的"生产化鸿沟"。它提供极致弹性扩展、企业级安全沙箱、模型工具统一治理、全链路可观测及生态开放支持,帮助企业跨越环境复杂运维难、依赖不稳定成本高、运行过程黑盒化三大痛点,让开发者专注业务创新,实现AI Agent从Demo到生产的平滑过渡。

文章图片
#人工智能
AI Agent实战指南:从“只会说“到“会做事“,程序员效率革命必读

文章讲述了AI从ChatGPT式的"嘴炮王"到AI Agent"行动派"的革命性转变。AI Agent具备记忆、工具使用和目标驱动三大能力,通过API和MCP协议实现与外部系统交互,Agent to Agent协作模型实现专业分工。2025年将是AI Agent和MCP的落地年,这不仅是技术升级,更是工作方式的革命,掌握这些工具将获得显著效率优势。

文章图片
#人工智能
从Prompt到Harness:大模型工程化的三代范式演进与实践

生成式AI发展至今,大模型的基础推理能力早已实现跨越式突破,行业的核心矛盾也已从“模型够不够聪明”,转变为“如何让大模型的能力稳定、可控、合规地落地到真实生产场景”。从最初的对话机器人,到如今的企业级业务自动化、AI智能体规模化落地,行业用三年时间完成了三次认知升级,逐步形成了三套层层递进、互为补充的工程化范式:**Prompt Engineering(提示词工程)、Context Enginee

文章图片
#运维#java#数据库 +1
Qwen3.5-397B+Milvus+ColQwen2,如何做基于PDF的多模态RAG知识库

架构层面,Qwen3.5的亮点主要在MoE和线性注意力。其中,前者已经是近两年的大模型标准解法,而后者线性注意力也已经被国内kimi、minimax(上一代模型采用线性注意力,最新一代模型又换回了传统注意力)在内一众领先模型玩家所接受。

文章图片
#milvus#人工智能#python
收藏!2026年大模型必看:从“堆参数”到“智能密度”,端侧AI即将爆发

文章指出AI行业正从单纯堆参数转向“智能密度”。清华团队发现同等智能所需参数每3.5个月减半。文章还介绍了递归语言模型和混合架构。预测2026年端侧智能将爆发,AI将实现自我改进,云边协同成为主流。

#人工智能#数据挖掘#机器学习 +1
    共 629 条
  • 1
  • 2
  • 3
  • 63
  • 请选择