logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

非常丝滑,腾讯元宝已支持deepseek R1

今天在使用腾讯元宝网页版的时候发现可以切换成deepseek r1模型。还支持联网搜索。试了几个问题,响应非常丝滑。一,弱智题老鼠生病了可以吃老鼠药治好吗?二,数学题8个数字8,如何使它等于1000?三,编程题使用html和js生成一个文章封面图。封面图的尺寸是1200x800, 封面图的颜色是渐变的蓝色。封面图中央是文章标题:非常丝滑,腾讯元宝已支持deepseek R1~。文章标题分两行显示。

Y→MVP→AARRR:解锁产品增长的「三把钥匙」全图谱

实际上,绝大部分的企业,包括我们许多熟悉的互联网企业,花费在广告营销上的费用,是远远高于产品技术研发的。它们也可能是微信这样的东西,是抖音这样的东西,是拼多多这样的东西,具有一定的技术门槛,但让它们真正超越竞争对手的,是它们创新的产品形态或者对某一空白市场的填补。现在我发现,这个梦想关键的卡点,不是我不知道做什么东西,也不是我做不出来这个东西,而是做出来的东西没有什么人用。在今天,各种汽车都满足"

我用trae开发了一款颜值测试小程序

大家好,我是农村程序员,独立开发者,行业观察家,算法之虎,前端之兔,一个有毅力的吃货。最近我在trae的帮助下开发的一个小程序,颜值水晶球。可以召唤美丽女神维纳斯♀测量和点评✨颜值✨。希望能够给你们带来快乐????????????一,体验小程序大家可以点击上述小程序,也可以搜索微信小程序“颜值水晶球”,还可以扫描下面的二维码来体验。我个人对这个小程序的效果还是比较满意的,产品的完成度可以打9分。下

#小程序
Tabm,一个自带集成特效的深度学习模型

2,为了减少总的权重参数规模,这些小模型有相当多的权重参数是共享的,因此Tabm的实际权重大小是显著小于许多个完全独立的小模型的,这种权重共享的设计实际上也起到了一定的正则化的作用,可以提升模型的效果。1,Tabm由许多MLP小模型(例如k=32个)组成的,每个小模型都可以输出独立的预测,每个小模型的loss也是独立计算的。最终的预测是它们的预测结果的平均。3,Tabm还引入了精心设计的对数值特征

#深度学习#人工智能
深度学习里面有没有支持Multi-GPU-DDP模式的pytorch模型训练代码模版?

一般pytorch需要用户自定义训练循环,可以说有1000个pytorch用户就有1000种训练代码风格。从实用角度讲,一个优秀的训练循环应当具备以下特点。代码简洁易懂 【模块化、易修改、short-enough】支持常用功能 【进度条、评估指标、early-stopping】经过反复斟酌测试,我精心设计了仿照keras风格的pytorch训练循环,完全满足以上条件。该方案在知乎受到许多读者喜爱,

Tabm,一个自带集成特效的深度学习模型

2,为了减少总的权重参数规模,这些小模型有相当多的权重参数是共享的,因此Tabm的实际权重大小是显著小于许多个完全独立的小模型的,这种权重共享的设计实际上也起到了一定的正则化的作用,可以提升模型的效果。1,Tabm由许多MLP小模型(例如k=32个)组成的,每个小模型都可以输出独立的预测,每个小模型的loss也是独立计算的。最终的预测是它们的预测结果的平均。3,Tabm还引入了精心设计的对数值特征

#深度学习#人工智能
非常丝滑,腾讯元宝已支持deepseek R1

今天在使用腾讯元宝网页版的时候发现可以切换成deepseek r1模型。还支持联网搜索。试了几个问题,响应非常丝滑。一,弱智题老鼠生病了可以吃老鼠药治好吗?二,数学题8个数字8,如何使它等于1000?三,编程题使用html和js生成一个文章封面图。封面图的尺寸是1200x800, 封面图的颜色是渐变的蓝色。封面图中央是文章标题:非常丝滑,腾讯元宝已支持deepseek R1~。文章标题分两行显示。

Xlearn ——快速落地FM/FFM机器学习算法

Xlearn是你面对结构化数据分类/回归任务时,除了xgboost/lightgbm/catboost之外,又不想搞训练很慢的深度学习模型时,可以尝试考虑的一个能够快速落地的机器学习baseline基准。你可以将它单独使用 (在某些场景中可能会好于GBDT类模型),也可以尝试将它和GBDT类模型进行模型融合(基本在所有场景中都会有所提升)。它常常在广告点击率预测、推荐系统等存在大规模稀疏特征,并且

#机器学习#算法#人工智能
BaiChuan13B多轮对话微调范例

前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于多轮对话数据集的大模型高效微调范例。我们构造了一个修改大模型自我认知的3轮对话的玩具数据集,使用QLoRA算法,只需要5分钟的训练时间,就可以完成微调,并成功修改了LLM模型的自我认知。公众号算法美食屋后台回复关键词:torchkeras,获取本文notebook源代码。我们先说说原理,主要是多轮对话微调数据集以及标签的构造方法,

#机器学习#人工智能
Q-learning解决悬崖问题

Q-learning是一个经典的强化学习算法,是一种基于价值(Value-based)的算法,通过维护和更新一个价值表格(Q表格)进行学习和预测。Q-learning是一种off-policy的策略,也就是说,它的行动策略和Q表格的更新策略是不一样的。行动时,Q-learning会采用epsilon-greedy的方式尝试多种可能动作。更新时,Q-learning会采用潜在收益最大化的动作进行价值

#算法
    共 21 条
  • 1
  • 2
  • 3
  • 请选择