logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

吴恩达《LangChain LLM 应用开发精读笔记》2-Models, Prompts and Parsers 模型、提示和解析器

这一讲的核心在于“规范化:把“怎么问”固化成模板,以后只需要换变量。:把“怎么答”固化成代码,让 AI 输出机器可读的 JSON。一句话记住它:LangChain 帮你把 AI 那个随意的“嘴”,变成了严谨的“接口”。下一讲,我们来解决 AI“健忘”的问题 ——Memory (记忆)。

文章图片
#android
2026年想学AI,面对 Dify、Coze、n8n、LangChain 该学哪个?

👉首选:n8n理由:这是一个典型的自动化流。用 n8n 的监控新闻源。连接OpenAI 节点进行总结。连接Telegram 节点发送消息。Coze 也能做,但 n8n 在处理定时任务和多平台连接上更专业稳定。👉首选:LangChain (或 LangGraph)理由:这种高度定制化的需求,现成的平台(Coze/Dify)可能满足不了你的特殊逻辑(比如复杂的循环推理、多跳检索)。这时候,你就得拿

文章图片
#人工智能
LangGraph 实战:10分钟打造带“人工审批”的智能体流水线 (Python + LangChain)

messages: Annotated[List[BaseMessage], operator.add] # 聊天记录 (使用 operator.add 追加新消息)order_id: Optional[str] # 订单号amount: Optional[float] # 订单金额# 状态机核心字段:# pending: 初始状态# waiting_approval: 等待经理审批 (金额 >

文章图片
#python#开发语言
【保姆级教程】AutoGen多智能体协作实战:用DeepSeek打造你的AI金融分析团队

为了保证图表能稳定生成,我们定义一个专门的函数,并交给 Plotter 使用。# ... (省略具体绘图代码,使用 matplotlib) ...system_message="你是绘图师。调用 generate_chart 画图。",Analyst 不再需要自己写代码画图,而是专注于分析。system_message="""你是资深金融分析师。根据 Data_Fetcher 提供的新闻和 Plo

文章图片
#人工智能
RAG 实战进阶:彻底解决 PDF 复杂表格解析难题 (LlamaParse + 递归检索)

LangChain就像积木,适合搭建各种花哨的 Agent 流程。LlamaIndex就像显微镜,适合对数据进行深度处理和精准检索。用 LlamaIndex 处理数据 (RAG),用 LangChain/AutoGen 编排逻辑 (Agent)。这就是传说中的架构!下期预告搞定了数据,但一个 AI 还是干不完活怎么办?下周我们将进入Multi-Agent (多智能体)的世界,教你用AutoGen组

文章图片
#人工智能#RAG
LangSmith 快速上手:拒绝盲猜!让 AI 调试像看电影一样简单

一句话记住LangSmith 就是 AI 应用的“行车记录仪”,它让代码的每一次运行都“有迹可循”。核心三要点无感接入:只需配置环境变量,无需改动业务代码。全链路透明:输入、输出、耗时、Token,一切尽在掌握。在线调试:发现问题直接在网页上 Playground 调试,改完即用。

文章图片
#人工智能
LangChain 零基础入门:用 Python 打造你的第一个大模型应用(附 DeepSeek 实战)

我们用三步讲解法来拆解它。一句话记住LangChain 是大模型的“管家”,它帮大模型打理好了输入、输出、记忆和工具调用,让你专注于业务逻辑。核心三要点Model I/O让你随意换模型(OpenAI ↔ DeepSeek 无缝切换)。Chain帮你把复杂任务串成流水线。Agent让 AI 能够自主使用工具。🔮 进阶伏笔当你的 Chain 越来越长,出 Bug 了怎么查?以后飞哥会教你用LangS

文章图片
#python#开发语言
Android AI 实战:手把手教你用 Compose + CameraX 跑通 YOLOv8

一句话记住它Android 端侧推理 = CameraX 喂图 ➕ TFLite Support 预处理 ➕ YOLO 解析。核心三要点:每一帧图片的入口,要在这里做线程切换和数据处理。:Google 提供的神器,一行代码搞定缩放和归一化,别再手写 Bitmap 操作了。后处理 (NMS):模型输出的只是候选框,必须通过 NMS 算法去重,才能得到最终结果。

文章图片
#android#人工智能
【AI扫盲】大模型(LLM)原理详解:从 DeepSeek 到 GPT-5 全面解析 (2026最新版)

一句话记住它👉大模型就是个读了万卷书的“预测机”,参数是它的脑容量,Chat 版本是它学会了“说人话”,而训练是为了让它懂“行话”。核心三要点🔮LLM 本质:根据上文预测下文。🤝:Base 是书呆子,Chat 是好助理(咱们平时用的都是 Chat)。🌈多模态:能看能听能画,是未来的趋势。希望这篇“人话”科普,能帮你彻底搞懂这些高大上的概念!👍。

文章图片
#人工智能#机器学习
拒绝云端依赖!3MB 模型跑在手机上,TFLite 转换保姆级教程

一句话记住它模型量化就是给 AI 做“脱水压缩”,牺牲一丢丢精度,换取手机上的极致速度。核心三要点ONNX是中转站,TFLite是终点站。FP16性价比最高(体积减半,精度不降)。INT8虽快,但需要校准数据,且可能有精度损失。本周作业运行export.py导出你自己的 TFLite 模型。用 Netron 截图模型的输入输出节点。(选做) 尝试开启int8=True,看看体积还能小多少?下篇,我

文章图片
    共 51 条
  • 1
  • 2
  • 3
  • 6
  • 请选择