logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【AI大模型实战】AI智能体-Coze搭建【发票批量识别写入Excel】工作流

Coze工作流是一系列可执行指令的集合,用于实现业务逻辑或完成特定任务。它为应用/智能体的数据流动和任务处理提供了一个结构化框架。工作流的核心在于将大模型的强大能力与特定的业务逻辑相结合,通过系统化、流程化的方法来实现高效、可扩展的 AI 应用开发。 Coze提供了一个可视化画布,你可以通过拖拽节点迅速搭建工作流。同时,支持在画布实时调试工作流。在工作流画布中,你可以清晰地看到数据的流转过程和任务

文章图片
#人工智能
AI应用开发先了解这些概念:智能体、LLM、RAG、提示词工程,看到就是赚到!!

一种基于LLM(LargeLanguage Model)的能够感知环境、做出决策并执行行动以实现特定目标的自主系统。与传统人工智能不同,Al Agent 模仿人类行为模式解决问题,通过独立思考和调用工具逐步完成给定目标,实现自主操作。

文章图片
#人工智能#语言模型#RAG
【AI大模型应用】用 AI 打造你的专属旅行计划:多智能体旅行规划工具(实战篇)

在如今快速变化的 AI 世界里,能把各种信息整合成个性化、实用的旅行计划,简直是无价之宝!马上开启小孩们的暑假模式,旅行变热了。不管是随性的周末小逃亡,还是精心设计的长假期,旅行者们都越来越想要一个智能系统,能实时从网上抓取数据,转化成详细的行程安排、活动推荐和旅行小贴士。

文章图片
#人工智能
AI智能体实战:一文搞懂如何规划1个AI Agent,建议收藏!!!

你有没有这样的经历?辛辛苦苦开发了一个AI智能体(Agent),上线后却发现,要么不够智能,要么用户压根儿用不上。功能看着挺炫酷,实际上却解决不了用户的真实问题,甚至连用户是谁都搞不清楚。所以,别急着动手写代码,咱们先坐下来好好规划一下。弄清楚这个Agent到底服务谁?解决什么痛点?与普通的大模型有什么区别?只有先想清楚这些问题,才能避免走弯路,让Agent真正有用起来。今天,我就带大家聊聊如何规

#人工智能#AI智能体
【AI大模型应用】AI 智能体中海量 MCP 工具优雅选择架构设计与案例落地

AI 智能体在企业落地过程中通过 MCP 标准协议获取数据,随着可用的 MCP 工具越来越多,逐步达到几十万个 MCP 工具,甚至几百万个,MCP 工具通过系统提示词注册给大模型时候,将会导致以下两个问题:

文章图片
#人工智能
【超详细+收藏】大模型术语详解:从Token到模型路由,小白/程序员必学指南

这篇文章用通俗语言解释了大模型的核心术语,包括Token(语言的最小计量单位)、Embedding(token向量化)、上下文长度(模型能处理的连续token数量)、提示词工程(对模型的输入指令)、RAG(结合外部知识检索的技术)、模型微调(针对特定领域再训练)和模型路由(将请求分配给最合适的模型)。掌握这些概念能帮助用户更好地理解和使用大模型,提高应用效果。

文章图片
#人工智能
【超详细+收藏】大模型术语详解:从Token到模型路由,小白/程序员必学指南

这篇文章用通俗语言解释了大模型的核心术语,包括Token(语言的最小计量单位)、Embedding(token向量化)、上下文长度(模型能处理的连续token数量)、提示词工程(对模型的输入指令)、RAG(结合外部知识检索的技术)、模型微调(针对特定领域再训练)和模型路由(将请求分配给最合适的模型)。掌握这些概念能帮助用户更好地理解和使用大模型,提高应用效果。

文章图片
#人工智能
一文讲清AI Agent上下文工程:ManusAI实战经验与最佳实践,零基础小白收藏这一篇就够了!!

ManusAI基于上下文学习能力而非从头训练构建AI Agent,通过围绕KV-Cache设计、遮蔽而非移除工具、将文件系统用作上下文、通过复述操纵注意力、保留错误信息以及避免少样本陷阱等六方面经验,解决了Agent构建中的上下文工程挑战。文章强调上下文工程是AI Agent成功的关键,塑造上下文的方式决定了Agent的行为、运行速度、恢复能力和扩展性。

文章图片
#人工智能
一文讲清AI Agent上下文工程:ManusAI实战经验与最佳实践,零基础小白收藏这一篇就够了!!

ManusAI基于上下文学习能力而非从头训练构建AI Agent,通过围绕KV-Cache设计、遮蔽而非移除工具、将文件系统用作上下文、通过复述操纵注意力、保留错误信息以及避免少样本陷阱等六方面经验,解决了Agent构建中的上下文工程挑战。文章强调上下文工程是AI Agent成功的关键,塑造上下文的方式决定了Agent的行为、运行速度、恢复能力和扩展性。

文章图片
#人工智能
【AI大模型】LLM视觉化技术详解:从Chameleon到VoRA的多模态模型构建之路,建议收藏!!

本文详细探讨了为LLM添加视觉能力的两种主要方法:一是构建原生多模态模型(NMMs),如Meta的Chameleon,它为所有模态提供统一标记空间;二是为预训练LLM添加视觉模块,如LLaVA架构,通过视觉编码器处理图像并投影到词嵌入空间。文章重点介绍了VoRA创新方案,它通过微调LoRA适配器而非依赖外部视觉模型,结合知识蒸馏技术高效整合视觉能力,为构建更轻量级的多模态模型提供了新思路。

文章图片
#人工智能
    共 566 条
  • 1
  • 2
  • 3
  • 57
  • 请选择