logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Lagent:从零搭建你的Multi-Agent,保姆级教程!

本文详细记录了Lagent框架搭建大模型Agent的过程,包括环境配置、基础Agent使用和Multi-Agents博客系统实现。通过示例代码展示Web Demo创建和博客写作系统的实现,完成内容生成、批评和完善流程,提供从环境配置到实际应用的完整指导。使用 Lagent 复现文档中 “制作一个属于自己的Agent” 和 “Multi-Agents博客写作系统的搭建”两部分内容,记录复现过程并截图

文章图片
#transformer#职场和发展#人工智能
面试官问:RAG的Query理解模块是怎么做的?

很多人以为RAG的核心是检索或生成, 但真正决定系统表现的,往往是Query 理解的能力。理解得好,后面的检索就像打靶——稳、准、狠。理解得差,模型再强也答不对。“RAG的智能,不在模型,而在解析。在过去的几个月中,我们已经有超过80个同学(战绩可查)反馈拿到了心仪的offer,包含腾讯、阿里、字节、华为、快手、智谱、月之暗面、minimax、小红书等各家大厂以及传统开发/0基础转行的同学在短时间

文章图片
#人工智能#自然语言处理#transformer
大模型笔记:系统理解深度学习

深度学习是一门以神经网络为核心,融合数学原理、工程优化与场景落地的交叉学科,其核心逻辑围绕“用参数化模型逼近真实数据规律”展开,形成了从理论到实践的完整体系。从理论基石来看,万能近似定理奠定了神经网络的函数逼近能力,而真实函数与近似函数的估计关系,构成了深度学习的核心矛盾。泛化误差的偏差-方差-噪声分解,明确了模型优化的目标——在拟合能力与稳定性之间找到平衡,最终让泛化误差逼近噪声下限。训练过程的

文章图片
#深度学习#人工智能#架构 +1
内网穿透的利器——FRP,从零基础到精通,收藏这篇就够了!_quasar 内网穿透

在介绍 FRP之前,先来说说内网穿透的概念。内网穿透是一种网络技术,可以让处于局域网(比如你家里的网络)中的设备,通过互联网与外部设备进行通信。简单来说,就是让你家里的电脑、摄像头、服务器等设备,可以通过互联网从外面访问到。FRP是一款强大的内网穿透工具,能够将你的本地服务(例如你电脑上的网站或应用程序)映射到互联网,让你可以轻松地从外网访问这些服务。无论是个人开发者、企业团队,还是爱好者,FRP

文章图片
#服务器#linux#网络 +4
想学习大语言模型(LLM),应该从哪个开源模型开始?

不要从零训练模型:个人开发者资源有限,微调(Fine-tuning)或提示词工程(Prompt Engineering)才是性价比之选110;警惕“配置地狱”:初学者建议用Coze等集成环境,跳过CUDA版本、分布式训练等复杂问题5;业务驱动学习:先明确想解决什么问题(写邮件?分析报表?),再反推技术栈10。学习LLM如同习武——先练招式(Coze可视化),再修内功(PyTorch/算法)。保持每

文章图片
#学习#语言模型#开源 +4
自建一个Agent很难吗?一语道破,万语难明

最近花了一周左右的时间给内部的一个传统研发平台接入了 Agent 开发的能力,很多同学对 Agent 的底层实现非常感兴趣,所以此篇给大家介绍下我是怎么做的,希望能对想自建 Agent 的同学有所启发。因人力原因,有些细节方案问题没太做深度评测,而是直接选择业界实践较多的成熟方案。主要参考思路和上下文管理的过程。文中用到了一些内部平台的基础能力,比如 rag、代码管理、deepwiki等,外部开发

文章图片
#transformer#面试#职场和发展 +1
如何构建一个真正可靠的AI Agent?

•你的每次请求成本或月度预算是多少?•你的可接受响应时间是多少?(实时 <2 秒,准实时 <10 秒,批处理可以是分钟/小时)•你需要什么准确率水平?(取决于错误代价:高风险需要 95% 以上,原型可以容忍 70-80%)

文章图片
#人工智能#transformer
探索高性能AI识别和边缘计算 NVIDIA Jetson Orin Nano 8GB 开发套件的全面测评_jetson orin nano算力

NVIDIA Jetson Orin™ Nano 开发者套件是一款尺寸小巧且性能强大的超级计算机,重新定义了小型边缘设备上的生成式 AI。它采用了性能强大的Orin架构模块,在体积小巧的同时提供高达40 TOPS的AI算力,能够无缝运行各种生成式 AI 模型,包括视觉变换器、大语言模型、视觉语言模型等,为开发者、学生和创客提供了一个高性价比且易于访问的平台。图注:NVIDIA Jetson Ori

文章图片
#人工智能#边缘计算#数据库 +3
deepseek+ragfllow本地部署私有智能问答系统

这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。大模型的发展是当前人工智能时代科技进步的必然趋势,我们只有主动拥抱这种变化,紧跟数字化、智能化潮流,才能确保我们在激烈的竞争中立于不败之地。(篇幅有限,仅展示部分

文章图片
#数据库#人工智能#计算机视觉 +1
什么是大模型微调?如何对大模型进行微调?大模型入门到精通,收藏这篇就够了_大模型的强化微调

从GPT-3到ChatGPT,再到GPT-4和GitHub Copilot,微调在这些过程中发挥了重要作用。什么是微调?微调能解决哪些问题?LoRA又是什么?如何进行微调?本文将解答上述问题,并通过代码示例展示如何使用LoRA进行微调。微调的技术门槛不高,对于规模不超过100亿参数的模型,所需的硬件成本也不高(100亿参数的模型并非玩具,许多实际应用中会使用这种规模的模型)。即使是非专业的算法人员

文章图片
#vscode#编辑器#机器学习 +2
    共 1123 条
  • 1
  • 2
  • 3
  • 113
  • 请选择