
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
来自德克萨斯大学奥斯汀分校、悉尼科技大学和谷歌的研究者提出了一个无需训练就能自动扩展框架 As-ViT,其能以高效和有原则的方式自动发现和扩展 ViT。当前 Vision Transformers (ViT)领域有两个主要的痛点:1、缺少对 ViT 进行设计和扩展的有效方法;2、训练 ViT 的计算成本比卷积网络要大得多。【注】技术交流、资料获取,文末查看为了解决这两个问题,来自得克萨斯大学奥斯汀

机器之心报道编辑:杜伟、陈萍微软亚洲研究院升级了 Swin Transformer,新版本具有 30 亿个参数,可以训练分辨率高达 1,536×1,536 的图像,并在四个具有代表性的基准上刷新纪录。在不久之前公布的 ICCV 2021 论文奖项中,来自微软亚洲研究院的研究者凭借论文《Swin Transformer: Hierarchical Vision Transformer using S

Transformer模型在计算机视觉任务(包括目标检测和视频分类)领域不断取得领先成果。Transformer 模型https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html目标检测https://arxiv.org/pdf/2103.14030v2.pdf视频分类https://
何凯明团队又发新论文了!这次他们研究的是如何将预训练好的ViT迁移到检测模型上,使标准ViT模型能够作为Mask R-CNN的骨干使用。结果表明,与有监督和先前的自我监督的预训练方法相比,AP box绝对值增加了4%。模型参数的初始化一直是一个重要的研究问题,一个合适的初始化能够提升模型性能,加速收敛找到最优解。 由于不需要训练数据,所以无监督或自监督训练后的模型,能够很自然地作为下游任
机器之心报道编辑:蛋酱课程视频时间有点长,但希望你能享受学习的快乐。将传统强化学习与深度神经网络结合的深度强化学习,一直以来被视为更接近人类思维方式的人工智能方法。深度学习具备强感知能力但缺乏一定的决策能力,强化学习具备决策能力但对感知问题束手无策,因此将两者结合起来可以达到优势互补的效果,为复杂系统的感知决策问题提供了解决思路。想要入门深度强化学习的同学们,请高度注意,一份优秀、细致、全面的新教
互联网推荐广告的排序,关键在于对流量价值的预估,其中最重要的一部分是对点击率的预估。为了提高广告的变现效率,核心的问题是如何提高广告的预估精度。同一个广告,在上下文不一样的情况下,点击率是不同的,点击率不只是受用户和广告的影响,还受上下文的影响,所以如果只是从召回到粗排再到精排做一个pointwise的预估,对于广告的CTR预估是不准的,需要对整个广告序列整体考量。本文将分享强化学习在京东广告序列
来自香港大学,麻省理工大学和 MIT-IBM 沃森人工智能实验室的研究者提出了基于可微物理模型的神经符号推理框架,在精度上超过了基于 Transformer 的模型。动态视觉推理(Dynamic Visual Reasoning),尤其是涉及到物体间物理关系的推理,是计算机视觉中一个重要且困难的问题。给定一个观测视频,它不仅要求模型根据视频推理出视频中物体的交互过程,还要求对视频的长期未来(Lon
自我介绍环节,要清晰地阐述了个人基本信息、教育背景、工作经历和技能特长,展示了自信和沟通能力。

PyG(PyTorch Geometric)是一个基于PyTorch的图神经网络框架,建议先了解PyTorch的使用再学习PyG,要不然看不懂。本文内容角度,喜欢本文点赞支持、欢迎收藏学习。PyG包含图神经网络训练中的数据集处理、多GPU训练、多个经典的图神经网络模型、多个常用的图神经网络训练数据集而且支持自建数据集,主要包含以下几个模块torch_geometric:主模块torch_geome

是时候准备面试和实习了。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。。岗位:大模型Agent应用算法岗bg:南京大学CS硕士。








