logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【Datawhale组队学习202602】Hello-Agents task04智能体经典范式构建

本文摘要:文章介绍了现代智能体的三种经典范式构建方法。首先讲解了ReAct范式,它通过"思考-行动-观察"循环实现动态决策;其次是Plan-and-Solve范式,强调先规划后执行;最后是Reflection范式,赋予智能体自我反思能力。文章详细展示了ReAct的实现过程,包括工具定义、提示词设计和调试技巧,并以电商客服场景为例,建议采用ReAct+Reflection组合架构

#学习#人工智能
【Datawhale组队学习202602】Hello-Agents task03 大语言模型基础

Datawhale教程地址 - Hello Agents它揭示了模型性能(通常用损失 Loss 来衡量)与模型参数量训练数据量以及计算资源之间存在着可预测的幂律关系。LND≈NcNαNDcDαDL0LND≈NNc​​αN​DDc​​αD​L0​研究发现,在双对数坐标下,这是一条平滑直线——意味着模型的性能是可预测地、平滑的提升。资源作用过度投入的后果参数量NNN模型的脑容量:决定能记住多少模式。

#学习#语言模型#人工智能
【Datawhale组队学习202602】Easy-Vibe task02 认识AI IDE工具

本文介绍了AI编程工具的发展与应用。首先强调了思维转变:遇到问题先咨询AI,并推荐使用AI IDE工具提高开发效率。文章对比了普通IDE和AI IDE的功能差异,指出AI IDE具备智能代码生成、代码理解与优化等核心能力。同时列举了市面上主流AI IDE产品及其特点。最后通过一个中国风俄罗斯方块游戏的开发案例,展示了如何利用AI IDE快速实现复杂项目原型,并逐步完善功能。文章旨在帮助开发者适应A

#学习#人工智能#ide
【Datawhale组队学习202602】Hello-Agents task02 智能体发展史

本文探讨了智能体的演进历程,从符号主义时代的早期智能体到现代基于大语言模型的智能体。文章首先介绍了物理符号系统假说和专家系统的工作原理,分析了符号主义智能体在知识获取和灵活性方面的局限性。随后阐述了马文·明斯基的心智社会理论,以及联结主义学习范式如何通过神经网络解决符号主义的瓶颈问题。最后对比了不同时代智能体技术的差异,并通过"智能代码审查助手"的案例展示了智能体技术的演进过程

#学习#人工智能
【Datawhale组队学习202602】Hello-Agents task01 初识智能体

本文介绍了智能体的基本概念、发展历程和运行原理。从传统视角出发,智能体经历了从简单反射到基于模型、目标、效用的演进,最终发展为学习型智能体。大语言模型的出现带来了新的智能体范式。文章还探讨了智能体的不同类型(反应式/规划式/混合式)和知识表示方式(符号主义/亚符号主义/神经符号主义)。通过PEAS模型分析了智能体的任务环境,并阐述了感知-思考-行动的运行机制。最后介绍了智能体作为开发工具和自主协作

#学习#人工智能
【Datawhale组队学习202602】Easy-Vibe task01 AI时代,会说话就会编程

摘要:AI编程时代的新机遇与实践探索 本文探讨了AI编程为普通人带来的新机遇,通过具体案例展示了对话式AI在游戏开发中的应用能力。研究表明,当前AI可胜任简单内部工具、数据看板和轻量级游戏开发,46%的代码可由AI生成。文章详细演示了如何通过自然语言指令让AI生成贪吃蛇游戏,并逐步扩展功能(如文字收集、诗歌生成和图像创作)。实验表明,AI能快速实现基本功能,但在复杂系统开发中仍需人工参与架构设计。

#学习#人工智能
【Datawhale组队学习202601】Base-NLP task06 大模型训练与量化

本文介绍了大模型量化技术及其应用实践。量化通过减少数据表示位数来降低显存占用和提升推理速度,使大模型能在消费级硬件上运行。文章分析了不同精度格式(FP32、FP16/BF16、INT8、INT4)的显存占用关系,并给出通用估算公式。重点讲解了Transformers中三种主流量化方案:GPTQ(面向推理的高效量化)、AWQ(激活感知量化)和BitsAndBytes(支持微调的低精度方案)。最后以Q

#学习#自然语言处理#人工智能
【Datawhale组队学习202601】Base-NLP task05 高级微调技术

Datawhale组队学习教程地址LLaMA-Factory 是一个简洁高效的大型语言模型(Large Language Model)训练与微调平台,旨在让开发者能够“零代码”地完成大模型的定制化训练。广泛的模型支持:支持业界主流的开源模型,如 LLaMA、Qwen(通义千问)、Baichuan(百川)、ChatGLM、Mistral、Yi 等。

#学习#自然语言处理#人工智能
【Datawhale组队学习202601】Base-NLP task04 参数高效微调

本文系统介绍了大模型时代的参数高效微调(PEFT)技术发展脉络。首先分析了传统全量微调在千亿参数大模型上面临的高成本、存储压力、灾难性遗忘等问题,以及提示词工程的局限性。随后重点阐述了PEFT的核心思想——冻结大部分预训练参数,仅调整极小部分参数来适应下游任务。详细剖析了Adapter Tuning、Prefix Tuning、Prompt Tuning和P-Tuning v2等代表性技术路线,比

#学习#自然语言处理#人工智能
【DW动手学大模型应用全栈开发】 - (2)大模型RAG实战

Datawhale学习地址由于RAG简单有效,它已经成为主流的大模型应用方案之一。RAG,就是通过引入外部知识,使大模型能够生成准确且符合上下文的答案,同时能够减少模型幻觉的出现。例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。

#学习#python#深度学习
    共 16 条
  • 1
  • 2
  • 请选择