logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

因果表征学习综述

目录引言鲁棒性RobustnessLearning Reusable Mechanisms因果关系视角A Causality Perspective贡献总结因果建模的层次本篇内容来自因果表征学习综述 “Towards Casual Representation Learning”,表征学习Representation Learning是机器学习中的重要问题,良好的表征是机器学习算法成功的重要条件;

#学习#人工智能#机器学习
RandOpt:神经丛林

作者怀疑,随着大语言模型规模的增长,预训练已经把模型带到了一个极其富饶的“风水宝地”。在这里,传统观念中“大海捞针”的困境已经不存在了。为了验证这个猜想,他们决定用最原始、最被学术界鄙视的。

文章图片
#人工智能
AI驱动的抗体生成全流程指南

过去数月,AI技术实现了抗体设计领域的颠覆性突破:科研人员首次可通过计算机完成全新抗体的从头设计,而仅在一年前,尚无工具能通过计算方式可靠完成这一工作。目前,Nabla Bio、Chai Discovery、Isomorphic Labs(DeepMind衍生企业)等商业公司,以及BoltzGen、Germinal等开源工具,均已实现抗体设计的高成功率。抗体作为生物学领域最具通用性的工具之一,是修

文章图片
#人工智能
UniMedVL:统一的医疗多模态理解和生成模型

这篇论文(UniMedVL: Unifying Medical Multimodal Understanding and Generation through Observation-Knowledge-Analysis)提出了一种名为的统一医疗多模态大模型,旨在解决当前医疗AI系统中理解(如诊断报告)与生成(如图像合成)能力割裂的问题。以下是关于该论文中和。

文章图片
#人工智能
结合可变形注意力的视觉Transformer

首先要理解Q,K,VQ,K,VQ,K,V:Softmax(QKT)VSoftmax(QK^{T})VSoftmax(QKT)V假设window内的patch总数为3,则有:可以想象,对于3×33\times 33×3注意力分布,即QKTQK^{T}QKT,行代表query,列代表key,QKT[i,j]QK^{T}[i,j]QKT[i,j]为patch iii (query)和patch jjj

#transformer#深度学习#计算机视觉
MaskedAutoencoders视觉学习器CVPR2022

本文表明,掩码自编码器(MAE)是可扩展的计算机视觉自监督学习器。MAE很简单:我们随机屏蔽输入图像的patches,并重建这些缺失的像素。它基于两个核心设计。首先,我们开发了一种非对称编码器-解码器架构,其中编码器仅在可见的patch子集上运行(没有掩码token),以及一个轻量级解码器,该解码器从隐含表示和掩码token重建原始图像。其次,我们发现mask高比例的输入图像(例如75%)会产生重

#学习#深度学习#机器学习
NeRF数据预处理概述

通过COLMAP可以得到场景的稀疏重建结果,其输出文件包括相机内参,相机外参和3D点的信息,然后进一步利用LLFF开源代码中的imgs2poses文件将内外参整合到一个文件poses_boudns.npy中,假设该场景有。首先,我们在像素坐标下进行网格点采样,得到特定分辨率图像的各个像素点坐标。注意NeRF中所说的观察方向,严格来说,是相机连接某个像素的方向,因为我们要沿着这个方向去渲染得到像素的

#计算机视觉#opencv#人工智能
知识图谱(1)知识存储与检索

知识图谱(1)知识存储与检索

文章图片
#人工智能
    共 150 条
  • 1
  • 2
  • 3
  • 15
  • 请选择