logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

开源深度学习视觉算法库总结对比mmlab/paddle/detection/tensorflowhub/opencv

深度学习开源视觉库对比,包含paddle,mmlab,detectron、huggingface等

文章图片
#开源#深度学习#算法 +2
深度学习模型使用GPU/cuda推理刚开始会很慢,CUDA/GPU预热加速

使用深度学习模型推理,即使使用gpu,前几个批次也会格外的慢,使用预热来解决

文章图片
#深度学习#人工智能#pytorch +3
数字人驱动/动画方向最新顶会期刊论文收集整理 | AAAI 2025

利用这些强大的先验,我们开发了 DEEPTalk,这是一个会说话的头部生成器,它可以非自回归地预测码本索引以创建动态的面部运动,并结合了一种新的情绪一致性损失。广泛的实验表明,我们的方法获得了最先进的结果,保留了源身份,保持了细粒度的面部细节,并以非常高的准确性捕捉了细微的面部表情。此策略可增强 GAN 训练的稳定性,并确保生成的全身手势的表现力。例如,由于音频信号相对较弱,仅由音频驱动的方法有时

文章图片
#深度学习#算法#人工智能 +2
开源深度学习视觉算法库总结对比mmlab/paddle/detection/tensorflowhub/opencv

深度学习开源视觉库对比,包含paddle,mmlab,detectron、huggingface等

文章图片
#开源#深度学习#算法 +2
【零样本异常检测CVPR2025】AA-CLIP:Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP 论文解读

文章的核心在于原始的CLIP由于关注通用能力,缺乏对异常的感知,所以作者通过提升了文本分支对normal和abnormal的区分,提升了CLIP对异常的识别能力

文章图片
#python#深度学习#机器学习 +4
【DINO】基于自监督的通用视觉骨干网络

简单总结本文的动机就是,transformer得益于自然语言的成功才被尝试用在视觉上,而在自然语言中,基于自监督预训练在transformer上取得了很大的成功(比如BERT),那在transformer用在视觉上是不是也可以用自监督取得好的效果呢?一、主要解决的问题ViT在视觉任务中的局限性监督学习下的Vision Transformer(ViT)相比卷积网络(ConvNets)尚未展现明显优势

文章图片
#人工智能#计算机视觉#深度学习 +1
【工业缺陷检测/工业质检】无监督检测(异常检测Anomaly Detection)与zero-shot零样本检测的区别与定义

工业质检领域,尤其是基于图像的工业缺陷检测领域,缺陷样本的收集可能非常困难,也就促生了无监督异常检测与zero-shot检测的研究方向,他们都不需要目标场景下的缺陷样本,因此大家可能会对他们的概念和具体使用场景存在疑问。因此本文重点对这两个任务进行介绍和对比。

文章图片
#机器学习#人工智能#深度学习 +4
torch to onnx加速,复杂网络pytorch转onnx报错记录及解决

torch转onnx中问题的解决思路,设计interpolate算子,instance norm, grid sampler

文章图片
#pytorch#人工智能#python +2
开源深度学习视觉算法库总结对比mmlab/paddle/detection/tensorflowhub/opencv

深度学习开源视觉库对比,包含paddle,mmlab,detectron、huggingface等

文章图片
#开源#深度学习#算法 +2
    共 22 条
  • 1
  • 2
  • 3
  • 请选择