logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Vulnerability-Aware Spatio-Temporal Learning for Generalizable Deepfake Video Detection(针对可泛化的深度伪造视频

深度伪造视频的检测是非常有难度的,。现有的方法大多都是用真实和伪造图片序列的二元分类器,这限制了他们的泛化性。并且随着生成式人工智能的不断发展,深度伪造的伪影再空间和时间层面更加难以察觉。。我们引入了一个多任务学习框架,包含两个辅助分支,专门观察时间伪影和空间伪影。。我们的模型泛化下很好。

#音视频#人工智能#深度学习
Vulnerability-Aware Spatio-Temporal Learning for Generalizable Deepfake Video Detection(针对可泛化的深度伪造视频

深度伪造视频的检测是非常有难度的,。现有的方法大多都是用真实和伪造图片序列的二元分类器,这限制了他们的泛化性。并且随着生成式人工智能的不断发展,深度伪造的伪影再空间和时间层面更加难以察觉。。我们引入了一个多任务学习框架,包含两个辅助分支,专门观察时间伪影和空间伪影。。我们的模型泛化下很好。

#音视频#人工智能#深度学习
ForgeLens: Data-Efficient Forgery Focus for Generalizable Forgery Image Detection(ForgeLens:面向可泛化伪造图像

AI生成内容技术的迅猛发展,尤其是图像合成领域中GANs和扩散模型的广泛应用,使得虚假图像的生成变得极为逼真且难以与真实图像区分,这不仅模糊了真实与虚假视觉的界限,更对社会安全造成了重大威胁。(先说了一下背景,什么什么深度伪造技术发展迅速,难以区分,介绍背景)这张图比较了三种图像伪造检测方法:专业化检测方法在已知数据集上准确率高,但泛化能力和数据效率低;冻结网络方法泛化能力强,但检测准确率低;而F

#人工智能
Vision Transformer(ViT): An Image is Worth 16x16 Words 论文精读

transformer在NLP领域很牛逼,但是在目前自注意力与cnn的结合在图像领域无法进行有效拓展,目前仍然是resnet框架的天下。思路作者的思路是直接把标准Transformer 直接应用于图像,尽量不修改内容。所以,作者将一个图像分割成一个patch,并提供这些patch的线性embeddings序列作为一个Transformer 的输入。图像patch的处理方式与NLP应用程序中的标记(

文章图片
#transformer#深度学习#人工智能
Frequency-Aware Deepfake Detection Improving Generalizability through Frequency Space Learning(频域感知的

本文主要研究的还是AI生成图像检测的泛化性问题。现有的使用频率来去做深度伪造检测方法的论文他们的泛化性不足。随着AI生成技术的更新,每一种AI生成技术都有自己的伪影,目前的深度伪造检测技术泛化性不足仍然是问题。。我们的模型迫使检测器关注高频信息,利用特征在空间和通道维度的高频显示。我们引入了一个简单的频率域学习模块,来学习与原信息无关的特征。最后实验结果表示我们模型的效果很好。

#机器学习#人工智能#深度学习
卷积神经网络

传统的神经网络包括输入层,中间隐藏层(隐藏层可以有多层),以及输出层,而卷积神经网络则包括传统输入层输入784就是驶入784个像素点,而卷积神经网络输入则是输入28x28x1的一个三维矩阵。(HxWxC)

文章图片
#cnn#深度学习#神经网络
U-net

首先U-net第一次为了解决医学影像问题提出的。它的具体结构如下图:他也是一个encoder-decoder结构,其中encoder是U形左边的部分,decoder是U形右边的部分。左边的叫做,右边的叫做。在这个U形中,每一个长条的矩阵都是一个,每一个箭头都代表一种。最初的U-net操作,它在进行卷积操作时,它的卷积核是3x3的,并且它没有进行padding操作。(因为当时BN操作并没有火起来,所

文章图片
#深度学习#cnn#神经网络
卷积神经网络

传统的神经网络包括输入层,中间隐藏层(隐藏层可以有多层),以及输出层,而卷积神经网络则包括传统输入层输入784就是驶入784个像素点,而卷积神经网络输入则是输入28x28x1的一个三维矩阵。(HxWxC)

文章图片
#cnn#深度学习#神经网络
Distilling the Knowledge in a Neural Network(提炼神经网络中的知识)

在相同数据上训练不同的模型,然后对他们的预测结果取平均值可以显著提高任何机器学习算法的性能。但是当我们使用一整套模型时就会导致模型的计算成本高,无法部署给本地。现在已经有研究证明可以将一个集成模型的知识压缩到单一模型中,这样可以实现轻量的部署。并且证明,这也部署效果非常好。作者做了一个新的模型集成,他由非常大的模型组成,然后再部署到一个小的模型中,这样可以保持很好的性能,并且足够轻量。

#神经网络#人工智能#深度学习
到底了