logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型的技术生态——怎么理解大模型技术以及应用技术

大模型的技术生态本质上就是围绕着大模型这个“人”转的。大家在学习大模型应用开发时会发现有很多种不同的技术方向和框架,而且不同的技术有其使用的业务场景,因此可能就有部分人认为,不同大模型应用技术之间是无关的。但事实上,从技术的角度出发,技术只是一种工具,而很多业务场景可能需要同时结合多种不同的技术才能满足复杂的业务需求。只不过技术生态经过这么多年的发展,已经形成了一套完善的架构机制,对我们使用者来说

文章图片
#人工智能#microsoft#机器学习 +1
这是一份大模型应用学习路线!(附学习资料)

最近两年大模型发展很迅速,在理论研究方面得到很大的拓展,基础模型的能力也取得重大突破,大模型现在正在积极探索落地的方向,如果与各行各业结合起来是未来落地的一个重大研究方向大模型应用工程师年包50w+属于中等水平,如果想要入门大模型,那现在正是最佳时机2025年Agent的元年,2026年将会百花齐放,相应的应用将覆盖文本,视频,语音,图像等全模态这一期主要是给大家推荐一个大模型应用学习路线这个学习

文章图片
#学习#人工智能#语言模型 +2
从0到1开发一个商用 Agent(智能体),把企业级 Agent 从“搭出来”到“跑起来”!!

在大模型技术迅猛发展的今天,AI 应用正从“泛化对话”迈向“深度业务嵌入”的新阶段。如果说上半场的竞争聚焦于模型能力的展示与通用场景的覆盖,那么下半场的核心战场,则毫无疑问是深入企业业务一线的 Agent(智能体)应用。企业对 AI 的期待早已超越“能聊天、会回答”的初级阶段,转而追求能够理解行业语境、执行复杂任务、保障数据主权,并真正融入业务流程的生产力级智能体。这一趋势并非空穴来风。

文章图片
#人工智能#大数据#机器学习 +3
大模型技术路径梳理,从零基础入门到精通,看这一篇就够了!

大模型技术路径是一场算力、算法、数据2017年Transformer架构奠定基础2018年BERT/GPT-1确立预训练范式2020年GPT-3展示规模效应与涌现能力2022年RLHF提升模型对齐能力2023年GPT-4/Gemini开启多模态时代2025年RLVR/DPO推动效率与真理导向训练未来技术路径将围绕效率提升、能力深化、安全对齐、生态扩展四大方向发展,最终目标是构建通用人工智能,实现更

#人工智能#网络#自然语言处理 +1
基于LaMA-Factory微调llama3.1-8B

大模型的训练目前主要分为和,受限于资源算力等原因,实际工作中更多用到的是。对于普通用户来说SFT仍然具备较高的门槛,需要了解一定的理论基础,准备用于微调的数据,由于不同基座模型相应的微调方法也不一样,需要对超参数优化等其他问题这里推荐使用LaMA-Factory支持多种模型:LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Qwen2-VL、Yi、Gemma、Baichua

文章图片
#人工智能#深度学习#开发语言 +2
大模型私有化部署实践(二):vLLM 分布式推理与性能优化前置

vLLM 是一个高性能、易扩展的大模型推理框架,专为生产环境中的大规模语言模型部署而设计。它通过创新的 PagedAttention 内存管理技术,显著提升了 GPU 的显存利用率,同时支持分布式推理,能够高效利用多机多卡资源。无论是低延迟、高吞吐的在线服务,还是资源受限的边缘部署场景,vLLM 都能提供卓越的性能表现。其简洁的 API 设计和灵活的部署方式,使得开发者能够快速集成并优化大模型推理

文章图片
#分布式#性能优化#人工智能 +3
云栖大会阿里掀桌子了!Qwen3-Max、VL、Omini、Agent ... 统统发布!

从万亿参数、对标GPT-5的 Qwen3-Max,到能看懂UI、操作电脑的 Qwen3-VL,再到能说会道的 Qwen3-Omni 和新一代视频模型 通义万相。阿里在构建一个从云端超强算力到终端高效应用,覆盖文本、代码、视觉、音视频的全方位AI模型生态。好了,这就是我今天想分享的内容。

#人工智能#AI
大模型应用要学会分而治之的思想

大模型长文处理中,只能使用分段处理的思想,这是大模型应用的原则。最近在研究大模型报告生成和长文本处理的功能,然后发现之前在做大模型应用时很少出现上下文超长的情况,最多也就是多轮对话中出现,而多轮对话主要是由于历史记录导致上下文超长,所以只需要做好历史记录管理即可。但在生成报告和长文本处理过程中,其情况和长对话又有一定的区别;因为报告生成和长文本处理一般不涉及历史记录的问题,但需要对文本内容进行分块

#人工智能#机器学习#microsoft +2
4种易用的本地化部署LLM的方法,从零基础到精通,看完记得收藏!

文章介绍了四种在本地运行大模型的方法:Ollama适合个人本地试验和脚本整合;LMStudio提供类似ChatGPT的界面且支持AMD/Intel集显;vLLM是开源推理引擎可提供OpenAI兼容接口;LlamaCPP是轻量级引擎可在个人电脑CPU或GPU上运行LLM。每种方法都有其适用场景和优势,用户可根据自身需求选择合适的工具。

#人工智能#机器学习#microsoft +1
AI大模型教程:轻松掌握Dify发票识别,从入门到精通,小白程序员必备!收藏版!

在传统报销流程中,手工录入电子发票信息一直是个棘手难题。财务人员需逐张核对发票上的开票日期、金额、税号等内容,不仅耗费大量时间,而且人工操作难免出现数据录入错误,一旦出现疏漏,后续核查纠错工作更是繁琐,极大影响报销效率和财务数据的准确性。同时,纸质发票易损毁、丢失,且非结构化数据难以直接用于深度分析,难以满足现代财务管理对数据精细化的需求。与之形成鲜明对比的是,在财务、税务及审计等领域,批量识别

文章图片
#人工智能#transformer#数据库 +1
    共 550 条
  • 1
  • 2
  • 3
  • 55
  • 请选择