logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI人工智能-Function Call 与MCP-第十四周(小白)

Function Call:LLM 的 “工具箱”,让 LLM 能调用外部工具做事,核心是 “决策(LLM)+ 执行(工具)” 闭环;痛点:不同 LLM 的 Function Call 格式不统一,适配麻烦;MCP:AI 领域的 “USB-C”,统一了 LLM 和工具的对接标准,解决格式不兼容问题;关系:Function Call 是基础能力,MCP 是优化标准,内部用 Function Call

文章图片
#人工智能
AI人工智能-Function Call 与MCP-第十四周(小白)

Function Call:LLM 的 “工具箱”,让 LLM 能调用外部工具做事,核心是 “决策(LLM)+ 执行(工具)” 闭环;痛点:不同 LLM 的 Function Call 格式不统一,适配麻烦;MCP:AI 领域的 “USB-C”,统一了 LLM 和工具的对接标准,解决格式不兼容问题;关系:Function Call 是基础能力,MCP 是优化标准,内部用 Function Call

文章图片
#人工智能
AI人工智能-Agent相关介绍-第十四周(小白)

Agent 的本质是 “让 AI 拥有自主能力”—— 从 “被动响应” 变成 “主动解决问题”。它不用人一步步指挥,能自己规划、用工具、记事情、协作,适合处理复杂、多变的任务。现在 Agent 已经应用在编程、游戏、客服、营销、智能家居等多个场景,未来还会渗透到更多行业(比如医疗、教育、金融),核心优势就是 “省时间、降成本、能应对复杂场景”。Agent = LLM(大脑)+ 记忆(存储)+ 规划

文章图片
#人工智能
AI人工智能-Agent相关介绍-第十四周(小白)

Agent 的本质是 “让 AI 拥有自主能力”—— 从 “被动响应” 变成 “主动解决问题”。它不用人一步步指挥,能自己规划、用工具、记事情、协作,适合处理复杂、多变的任务。现在 Agent 已经应用在编程、游戏、客服、营销、智能家居等多个场景,未来还会渗透到更多行业(比如医疗、教育、金融),核心优势就是 “省时间、降成本、能应对复杂场景”。Agent = LLM(大脑)+ 记忆(存储)+ 规划

文章图片
#人工智能
AI人工智能-RAG方法-第十四周(小白)

RAG 不是替代大模型,而是 “给大模型装了一个可更新、可溯源的‘外置大脑’”—— 既保留了大模型的生成能力(能说人话、会总结),又解决了大模型的知识过时、容易瞎编、不可控的问题。不管是企业做智能客服、医生做辅助诊断,还是学生做学习辅导,只要需要 “基于权威资料的准确回答”,RAG 都是目前最实用的方案。

文章图片
#人工智能
AI人工智能-RAG方法-第十四周(小白)

RAG 不是替代大模型,而是 “给大模型装了一个可更新、可溯源的‘外置大脑’”—— 既保留了大模型的生成能力(能说人话、会总结),又解决了大模型的知识过时、容易瞎编、不可控的问题。不管是企业做智能客服、医生做辅助诊断,还是学生做学习辅导,只要需要 “基于权威资料的准确回答”,RAG 都是目前最实用的方案。

文章图片
#人工智能
AI人工智能-大模型训练-第十三周(小白)

核心逻辑:把“装修材料”(训练数据)分成多份,每个GPU(工人)拿一份材料,同时用完整的模型(整栋房子的装修方案)计算梯度;计算完后,所有人把梯度汇总(比如你算的梯度是0.1,我算的是0.2.汇总后是0.3),再用汇总后的梯度统一更新模型参数类比:3个工人同时刷同一栋房子的3个房间,每个人都有完成的“刷墙流程”(模型),刷完后一起商量“下次怎么刷更快”(统一更参数)优点:简单易操作,不用改模型结构

文章图片
#人工智能#深度学习#机器学习
AI人工智能-NLP中的生成式任务-第十周(小白)

基础范式:seq2seq 任务→Encoder-Decoder 架构;核心突破:Attention 机制解决信息分配问题→Transformer 架构用 Self-Attention 替代 RNN,提升效率与建模能力;优化方向:通过采样策略控制生成多样性、用重复惩罚解决文本重复、用预训练模型(如 T5)提升泛化能力;应用场景:覆盖翻译、摘要、作诗、对话等,核心是 “基于输入创造符合语义和语法的全新

文章图片
#人工智能#自然语言处理
AI人工智能-大语言模型的神秘力量ICL(下)-第十一周(小白)

ICL 是大语言模型的无参数更新学习能力—— 不用像传统模型那样通过梯度下降更新权重(W 和 b),仅靠 “上下文里的任务描述 + 示例”,就能理解任务并生成结果。# 传统学习的核心流程(你肯定懂)def model(x): return W*X + b # 初始化权重loss = 损失函数(y_pred, batch_y)grad = 反向传播(loss)W = W - lr*grad # 关键

文章图片
#人工智能#语言模型#自然语言处理
AI人工智能-文本匹配任务-第八周(小白)

文本匹配是NLP(自然语言处理)的基础任务,核心是判断两段文本的“关联程度”,分为和。

文章图片
#人工智能
    共 22 条
  • 1
  • 2
  • 3
  • 请选择