logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一篇文章带你弄懂RAG五种分块策略,技术原理、优劣对比与场景选型之道!

RAG通过结合检索与生成技术,依赖其高效检索算法、多模态融合能力及系统级优化,解决了基础大模型在企业内部应用的局限性,例如通过RAG技术对接企业内部知识库,支持知识动态更新与实时交互,显著降低了大模型的幻觉风险,无需微调训练模型,低成本适配企业垂直领域的应用场景,在数据安全与可控性方面,可加入权限控制逻辑,确保敏感信息仅在授权范围内使用,同时通过引用标注实现可追溯性。利用LLM的语义理解能力,动态

文章图片
#人工智能#知识图谱#AI
大模型技术路径梳理

大模型技术路径是一场算力、算法、数据2017年Transformer架构奠定基础2018年BERT/GPT-1确立预训练范式2020年GPT-3展示规模效应与涌现能力2022年RLHF提升模型对齐能力2023年GPT-4/Gemini开启多模态时代2025年RLVR/DPO推动效率与真理导向训练未来技术路径将围绕效率提升、能力深化、安全对齐、生态扩展四大方向发展,最终目标是构建通用人工智能,实现更

#transformer#神经网络#架构 +2
万字综述,讲一讲这两年大模型这整个领域到底发展了哪些方面

三、2025年来推理Thinking走向台前3.1 CoT的逐渐拉长这些模型是首批被描述为具备“智能体工具使用”(agentic tool use)能力的模型。它们能够自主地决定何时以及如何组合使用网页搜索、Python代码分析和DALL-E图像生成等工具来解决一个复杂的用户请求。例如,模型可以多次搜索网页,分析返回结果,并根据分析动态调整后续策略。3.3.2 Anthropic的Claude 4

#人工智能#深度学习#设计模式 +1
30分钟极速上手:零代码_+_MCP,搭建你的第一个 AI 营销智能体

(如「Facebook 支出达 $5000 时提醒我」)。一旦超过阈值,n8n 将立即通过 Slack、邮件等方式发送预警,清晰注明渠道与当前支出。

#人工智能#大数据#架构 +4
谷歌Gemini 3:这代“最强大脑”,到底强在哪?

Gemini 3 到底强在哪?总结成一句话:不是更聪明,而是更能用。能干事:自动规划、多步骤执行,把复杂任务“一句话解决”。能触达:发布当天就进入搜索、Gmail、Android,覆盖数十亿用户。能闭环:算力、数据、产品全栈整合,形成别人无法复制的生态。这一次,我们终于看到 AI 从“对话框”走向“生活入口”:它不再等你打开,而是在你每天的工作流里随时待命。阿里巴巴也在同步推进类似路径:千问已接入

文章图片
#人工智能#数据库#开源 +1
马斯克宣布史上最聪明AI免费!Grok3和DeepSeek第一轮PK结果出来了!

就在前两天,马斯克带着团队搞了场大事情,全球直播发布了号称"史上最聪明AI"的Grok3。这位科技狂人带着自家xAI团队的最新作品Grok3闪亮登场,这场发布会可没让人失望,毕竟老马提前那么久就开始吊大家胃口,现在终于见到真身了!**“最聪明”的AI**先给没追直播的朋友划个重点:这次亮相的Grok3号称是"地球最聪明AI",不仅在数学编程这些硬核领域碾压同行,还要帮SpaceX算火星轨道!Gro

文章图片
#人工智能#开源#语言模型 +1
什么是大模型?一图全面了解大模型,附国内外知名大模型及240余家大模型清单!

AI大模型是“大数据+大算力+强算法”结合的产物,是一种能够利用大数据和神经网络来模拟人类思维和创造力的人工智能算法。它利用海量的数据和深度学习技术来理解、生成和预测新内容,通常情况下有数百亿乃至数万亿个参数,可以在不同的领域和任务中表现出智能。

文章图片
#语言模型#人工智能#自然语言处理 +1
华为昇腾推理DeepSeek-R1,性能比肩高端GPU,API免费无限量!潞晨自研推理引擎出手了

海外云厂商争相引入DeepSeek模型,国产算力也出手了!,发布基于国产910B的DeepSeek-R1系列推理API,以推理引擎为底座,。同步推出,满足自定义需求高、需要私有化部署DeepSeek-R1系列模型的用户。而且还送上蛇年开工的第一把羊毛:当前,DeepSeek-R1系列推理API,诚邀广大开发者抢先体验。体验地址:https://cloud.luchentech.com/maas/m

文章图片
#华为#深度学习#人工智能 +2
DeepSeek-OCR入门到精通:AI光学压缩完全教程(超详细),从小白到专家,一篇就够了,建议收藏!

DeepSeek团队开源DeepSeek-OCR模型,通过"光学压缩"技术将文本转为图像,用视觉token替代文本token,实现10-20倍压缩率同时保留大部分信息。模型由DeepEncoder压缩引擎和DeepSeek3B-MoE解码器组成,性能超越现有OCR方案。这一创新不仅解决长文本处理的算力问题,还模拟人类遗忘机制,重新定义AI的"上下文"概念,实现"更小、更快、更巧"的新范式。最近 A

文章图片
#人工智能#深度学习#设计模式 +3
Transformer架构优化:继续“暴力堆砌算力”还是“精细化算法设计”?

Transformer架构凭借其强大的并行处理能力和自注意力机制,在自然语言处理(NLP)领域取得了显著成就。然而,随着模型规模的扩大和应用场景的多样化,Transformer架构也遭遇了计算效率低下和显存占用过大等挑战。面对这些挑战,我们是应该继续遵循缩放定律(Scaling Law),通过“暴力堆砌算力”来应对,还是应该选择“精细化算法设计”来优化Transformer架构呢?DeepSeek

文章图片
#人工智能#自然语言处理#开源 +3
    共 544 条
  • 1
  • 2
  • 3
  • 55
  • 请选择