logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

阿里AgentBay揭秘,Agent Infra才是真护城河!

一个比较深刻的工程哲学可以分享给大家,当模型能力有上限时,与其死磕模型,不如优化环境。考虑,各种应用版本,操作过程中的各种意外,不如全面拥抱Agent Infra,当所有的配置都是统一、固定的。带来的结果大概率就是任务成功率飙升~好了,这就是我今天想分享的内容。

文章图片
#人工智能#语言模型#自然语言处理 +3
美团悄悄上线了生活Agent,懒人的春天真的要来了。

啊?今天早上9点多的时候。美团上线了他们的首个生活类Agent。名字,叫小美。大厂们卷疯了。这战场,真的从WAIMAI打到了AI了我靠。而且还真的居然被我猜中了。我上周写过美团的,我当时的标题就是:我对天发誓,我在写那一篇的时候我完全不知道他们的任何产品规划,只是从他们的推理速度、Agent跑分、还有小的功能来猜,他们可能是为Agent服务的。结果,一语成谶。我也第一时间,把产品下载了下来,然后发

文章图片
#生活#milvus#人工智能 +3
美团悄悄上线了生活Agent,懒人的春天真的要来了。

啊?今天早上9点多的时候。美团上线了他们的首个生活类Agent。名字,叫小美。大厂们卷疯了。这战场,真的从WAIMAI打到了AI了我靠。而且还真的居然被我猜中了。我上周写过美团的,我当时的标题就是:我对天发誓,我在写那一篇的时候我完全不知道他们的任何产品规划,只是从他们的推理速度、Agent跑分、还有小的功能来猜,他们可能是为Agent服务的。结果,一语成谶。我也第一时间,把产品下载了下来,然后发

文章图片
#生活#milvus#人工智能 +3
Pandas+Pyecharts | 双十一美妆销售数据分析可视化

本期利用 python 分析 双十一美妆销售数据,看看:双十一前后几天美妆订单数量、总销量各美妆品牌销量情况美妆品牌一级/二级分类占比各美妆品牌价格箱型分布情况各美妆品牌平均价格美妆品牌词云等等…希望对大家有所帮助,如有疑问或者需要改进的地方可以联系小编。涉及到的库:Pandas — 数据处理Pyecharts — 数据可视化1. 导入模块2.1 读取数据2.2 数据信息df.info()2.3

文章图片
#数据分析#pandas#信息可视化 +2
阿里Qwen3一大波更新:代码生成、视频、图片、语音全都有

算泥社区是集 “AI 大模型开发服务 + 算法 + 算力” 于一体的开源生态社区,欢迎关注!来感受一下阿里带来的一连串暴击,和亿点点震撼吧!我们一个一个来看看。

文章图片
#音视频#学习#深度学习 +2
AI大模型微调全攻略:从零基础入门到模型部署,一篇搞定!

文章详细介绍了大模型微调过程中的LOSS曲线观测、微调后模型合并与导出,以及通过Ollama和VLLM两种方式部署微调后的模型。讲解了如何使用SwanLab等工具监控训练过程,验证模型效果,并对比微调前后的性能差异,帮助开发者系统掌握大模型微调与部署的完整流程。今天我们来到微调教程的第四期,一起来学习微调过程中如何观测 LOSS 曲线,以及微调后模型的合并、导出和部署。

文章图片
#人工智能#数据库#搜索引擎 +1
Python 实战 | ChatGPT + Python 实现全自动数据处理/可视化

这个看上去很了不起的程序,背后原理却算不上复杂,相当于是给霍金先生换上了一副像施瓦辛格那样健硕的躯体(打趣一下,绝对无意冒犯)。如果 ChatGPT 是那个聪明绝顶的脑袋,那么 Python 就是那副强大的躯体。AI 虽然强大,但是没有直接操作我们计算机本地文件的权限;Python 语言也很强大,但没办法根据文字指令为我们解决个性化的问题。

文章图片
#python#开发语言#自动化
论文浅尝 | 基于提示的知识图谱基础模型用于通用上下文推理(NeurIPS2024)

本文介绍了一种基于上下文学习的知识图谱基础模型(KG foundation model),以提高知识图谱推理的有效性和可迁移性。具体来说,引入了提示图(prompt graph)和统一分词器(unified tokenizer)作为不同知识图谱之间知识转移的桥梁。本文提出了提示图生成模块、提示编码模块和知识图谱推理模块,以实现上下文学习并在43个不同的知识图谱上进行了归纳性和演绎性设置下的上下文推

文章图片
#神经网络#人工智能#深度学习 +3
AI大模型微调参数选择方法详解(超详细)从零基础到精通,一篇搞定,建议收藏!

文章介绍了大模型微调中的参数选择方法,分为基于规则(如BitFit只更新偏置项和分类头,或只更新最后几层)和基于学习(如Child-Tuning通过梯度掩码矩阵自动选择参数子集)两大类。这些方法显著减少需更新的参数,降低计算成本,但面临如何选择最佳参数子集的挑战。是在微调过程中,只对预训练模型中的部分参数子集进行更新。与参数附加方法不同,这类方法无需在模型中引入新的参数,从而避免了推理阶段额外的计

文章图片
#人工智能#自然语言处理#transformer +3
AI大模型微调参数选择方法详解(超详细)从零基础到精通,一篇搞定,建议收藏!

文章介绍了大模型微调中的参数选择方法,分为基于规则(如BitFit只更新偏置项和分类头,或只更新最后几层)和基于学习(如Child-Tuning通过梯度掩码矩阵自动选择参数子集)两大类。这些方法显著减少需更新的参数,降低计算成本,但面临如何选择最佳参数子集的挑战。是在微调过程中,只对预训练模型中的部分参数子集进行更新。与参数附加方法不同,这类方法无需在模型中引入新的参数,从而避免了推理阶段额外的计

文章图片
#人工智能#自然语言处理#transformer +3
    共 399 条
  • 1
  • 2
  • 3
  • 40
  • 请选择