logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

拆解、对比与优化:LLM工具智能体的五种任务规划与执行模式

大语言模型(LLM)驱动的 AI 智能体,特别是在借助Tools(工具)来完成复杂任务执行的过程中展现出了巨大的潜力。然而,让智能体能够合理规划任务步骤与执行、避免盲目行动是确保其高效可靠完成目标的关键。本篇将探讨多种。

文章图片
#人工智能#前端#数据库 +2
文科4个月转行「大模型」,拿到月薪30K+,我是怎么做的?

llamafactory如何做数据预处理、参数的设置、精度的选择、精度的选择会对损失造成什么影响、如果不用微调框架会不会写微调脚本?:Tensorrt 与 vLLM各自的优缺点;模型推理的参数有哪些,如何起作用?**·召回怎么加速:** faiss、Milvus优缺点,为什么他们向量检索速度快,构建知识库的时候向量用不用做归一化、为什么?**·NER:** 数据的构造、都用过什么模型、有什么优缺点

文章图片
#开源#开发语言#大数据 +2
满血版DeepSeek接入个人知识库,一般电脑也能飞速跑,彻底封神了!

继本地部署完 DeepSeek 后,我发现效果并没有想象中出彩,我本地的 AI 没有变成人工智能,偶尔还成了人工智障🐶。原因都懂,算力就摆在这,况且我电脑还在裸奔😂。于是之前给大家留的坑,本地训练知识库,就一直耽搁着。正当我满脸愁容时,偶然看到我随即吐了一口老痰,起身赶紧出了这一篇教程,给大家分享。在放教程前,不禁要灵魂拷问下自己?为什么要用 DeepSeek 介入个人知识库?其实像 Deep

文章图片
#开发语言#中间件#大数据 +1
DeepSeek满血版,直接在线飞速跑,确实可以封神了!

这篇文章给大家推荐了一个满血版DeepSeek-R1的在线运行平台。它和蒸馏出的6个版本相比,具有更强的推理性能,除了在本地搭建本地知识库建议使用蒸馏版以外,其他场景建议使用满血版R1。这篇文章重点测试了它到底是不是满血版的问题,测评使用MATH-500全Level-5数据测试,结果达到了95.0%的准确率。这个平台(问小白)不仅部署了满血版DeepSeek-R1,而且回复速度快、不限次使用,不用

文章图片
#人工智能#大数据#音视频 +1
算力中心转型大模型应用,看这一篇就够了!

在人工智能的浪潮之巅,算力中心曾是资本市场最炙手可热的“黄金赛道”。然而,随着潮水逐渐回归理性,单纯依靠“囤积居奇”式的算力扩张故事,已经难以再次点燃投资者的热情。市场的风向正在转变,对于前瞻的算力中心而言,一场深刻的自我革命势在必行——,正成为一条更具想象空间、也更“性感”的新路线。曾几何时,拥有和建设大规模算力中心是科技实力的终极象征。市场普遍认为,在AI的“淘金热”中,卖“铲子”是稳赚不赔的

文章图片
#人工智能#数据库#语音识别 +1
“AI过时了,现在都在投Agent”

很多人对Agent的理解都是,知道,又不完全知道。所以这个被资本热捧的Agent到底是什么?“Agent”(智能代理)是人工智能和计算机科学领域的一个重要概念,它指的是一种能够自主感知环境并做出决策以实现特定目标的软件或系统。Agent可以根据其设计和应用场景,具有不同的功能和特性。Agent通常被定义为一个能够感知环境并通过执行动作来影响环境的实体。它具有自主性、社会能力、反应性和主动性等基本特

#人工智能#百度#前端 +3
中学生就能看懂:从零开始理解LLM内部原理【四】|为什么需要嵌入?

点击上方蓝字关注我们本系列文章是原作者RohitPatel的长篇雄文《UnderstandingLLMsfromScratchUsingMiddleSchoolMath-Aself-contained,fullexplanationtoinnerworkingsofanLLM》的深度学习与解读笔记。。我们强烈建议您在开始前阅读并理解前文(点击下方目录)。还记得吗?

文章图片
#人工智能#中间件#大数据 +2
揭秘夸克健康大模型:AI如何用“慢思考”拉升医学推理上限

第一,通用大模型能力虽快速增长,但要在高专业度的健康医疗领域“炼成”性能高且可靠的推理模型,仍极具挑战。业界主流方向早期由DeepSeek R1验证有效。当下,或蒸馏DeepSeek R1模型数据,或在小数据集上探索较为常见;然而,在选择合适预训练模型的基础上,从头设计并搭建整套流程,并用于业务一线,较为罕见。尤其在健康医疗领域,自建整套流程化系统,能够明确模型从哪些数据,以何种方式学到哪些知识,

文章图片
#人工智能#自然语言处理#大数据 +2
六万字长文一次性说清LLM的后训练技术

大型语言模型(LLMs)的出现从根本上改变了自然语言处理,使其在从对话系统到科学探索等多个领域不可或缺。然而,它们的预训练架构在特定情境下常常暴露出局限性,包括推理能力有限、伦理不确定性以及领域特定性能不佳等问题。这些挑战需要先进的后训练语言模型(PoLMs)来解决这些不足,例如 OpenAI-o1/o3 和 DeepSeek-R1(统称为大型推理模型,或 LRMs)。

文章图片
#人工智能#容器#运维 +2
漫画图解:一口气搞懂大模型的10个核心概念

朋友们都2025年了还有很多人弄不清大模型里的一些基础概念到底什么是蒸馏什么预训练什么是token?今天指北决定做一期用动画《哪吒之魔童闹海》来一口气搞懂这些概念!——基座模型:哪吒的原始魔丸之力魔丸是天生的混沌能量,强大但难以控制,如同。它是哪吒能力的核心来源,类似基座模型通过预训练学习通用语言理解能力,但需要被“驯化”才能安全应用。智能体:乾坤圈限制下的哪吒 + 太乙真人的法宝,并借助混天绫、

文章图片
#python#深度学习#pytorch +2
    共 438 条
  • 1
  • 2
  • 3
  • 44
  • 请选择