logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Github Copilot编程工具背后的算法技术

本文不仅介绍大哥大GPT-3,还对他的同胞兄弟GPT-1, GPT-2也进行介绍,讲解他们之间的演化过程。

文章图片
#深度学习#自然语言处理
【物联网】智慧农业病虫害精准辨识竞赛思路及代码分享

本系统基于提供的农作物叶子图像数据集,构建病虫害辨识模型,最终通过三种深度学习分类模型实现,最终验证集准确度达到100%。

#深度学习#人工智能#机器学习
【论文解读】NuScenes-QA:自动驾驶场景的多模态视觉问答基准

我们在自动驾驶背景下引入了一种新颖的视觉问答(VQA)任务,旨在根据街景线索回答自然语言问题。与传统的VQA任务相比,自动驾驶场景中的VQA提出了更多的挑战。首先,原始视觉数据是多模态的,包括分别由相机和激光雷达捕获的图像和点云。其次,由于连续、实时采集,数据是多帧的。第三,室外场景呈现出移动的前景和静态的背景。现有的 VQA 基准无法充分解决这些复杂性。为了弥补这一差距,我们提出了 NuScen

文章图片
#自动驾驶#人工智能#机器学习
李沐也看好的方向:多模态预训练!最新成果刷爆SOTA,轻松拿下顶会

李沐大神前阵子在上交大的演讲大家关注了没,听完确实认同多模态才是当下的一个趋势。特别是为了应对任务复杂性、数据标注难题等方面的需求,当前我们对的研究热情已经空前高涨。它可以通过同时处理多种类型的数据,全面提高模型的表征、泛化等各项能力,也不需要我们大量标注数据,因此最近这方向一些阶段性的结果已经在各大顶会发表了,比如CVPR 2024的ULIP-2框架,无需标注数据即可刷新SOTA;还有AAAI

文章图片
#人工智能#深度学习#机器学习
多模态机器学习81篇论文及源码合集(已分类整理)

(MultiModal Machine Learning, MMML)是一种机器学习方法,它旨在解决复杂任务,如多模态情感分析、跨语言图像搜索等,这些任务需要同时考虑多种模态的数据并从中提取有用的信息。得益于各种语言、视觉、视频、音频等大模型的性能不断提升,多模态机器学习也逐渐兴起,它可以帮助人工智能更全面、深入地理解周围环境,提高模型的泛化能力和鲁棒性,同时还可以促进各学科之间的交流和融合。

文章图片
#机器学习
多模态时空融合全新框架!性能超越一众SOTA

多模态融合能够处理和关联来自不同模态的信息,提高决策的准确性。这其中,时空融合通过整合不同时间和空间维度上的数据,,让模型能够更深入地理解并解决现实世界中的动态和多维问题。因此,,被广泛应用于医学、自动驾驶等领域。为帮助同学们深入了解该方向,获得论文灵感,本文介绍,可参考创新点和开源代码也整理了,方便各位理解并复现。论文原文以及开源代码需要的同学看文末。

文章图片
#人工智能#深度学习
多模态还能这么玩?结合小样本学习,一区TOP轻松过收入囊中!

ZS-DeconvNet方法前脚刚登上Nature,后脚英伟达就提出了新的多模态跨域小样本学习模型MM-CDFSL(ECCV2024),最近的可谓是热度暴涨~事实上,,在其他诸多顶会(比如NeurIPS24、CVPR24等)上都非常受关注。这是因为这种结合不仅融合了小样本学习在有限数据下高效学习的能力,还充分利用了多模态数据提供的丰富信息,这样即使面对少量的标注数据,模型也能通过整合有限的多模态互

文章图片
#人工智能#机器学习#深度学习
遥感图像处理又上大分!加个多模态,一篇A会到手~

近期多模态可谓是大热门,与之相关的自然也不例外,而且已经出现了很多顶会成果,比如最新的多模态遥感图像分类方法LDS2AE,实现了高达99.53%分类准确率。这种方法通过整合多种类型的数据,显著提高了数据分析的精度和可靠性,对比传统的遥感图像处理方法,能给我们提供更全面、准确的信息,因此多模态遥感图像处理拥有更广阔的应用空间,对如今遥感技术的改进与创新也非常重要,是个很值得研究的方向。这里为了帮助大

文章图片
#人工智能
最新异常检测方法SQUID,基于深度特征In-painting

将输入图像划分为N×N个不重叠的块,并将它们输入编码器进行特征提取。将训练两个生成器来重建原始图像。在重建的同时,将创建一个解剖模式字典,并通过一个新的记忆队列动态更新(§3.2);教师生成器直接使用编码器提取的特征;学生生成器使用由我们的绘画块(§3.3)增强的特征。教师和学生生成器通过知识提炼范式耦合。使用鉴别器来评估学生生成器重建的图像是真的还是假的。一旦经过训练,它也可以用于检测测试图像中

文章图片
上海人工智能实验室面试题

上海人工智能实验室面试题

#c++#开发语言
    共 133 条
  • 1
  • 2
  • 3
  • 14
  • 请选择