logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【深度学习知识】卷积当中的补零操作

考虑卷积核和输入尺寸时奇数和偶数的情况

#深度学习#cnn#神经网络
【深度学习模型】cv中Attention的奇妙旅途——讲讲Self-Attention, SENet和CBAM

由于注意力机制的高速发展,我尝试着对attention形成一种比较系统化的理解,选了比较有代表性的Self-Attention, SENet和CBAM,整理成本文。

#计算机视觉#深度学习#python
【深度学习模型】ChatGPT原理简述

OpenAI推出人工智能聊天模型ChatGPT,很快引起百万用户注册使用,公众号和热搜不断,迅速火出圈,甚至引起各大公司在聊天对话机器人上的军备竞赛。

#深度学习#人工智能
【深度学习框架】pytorch之分布式数据并行化DDP

DistributedDataParallel(DDP)是一个支持多机多卡、分布式训练的深度学习工程方法。它将数据并行划分到多个进程,各进程初始化模型并由各自的数据训练,再通过Ring-Reduce进行梯度交换与合并,实现进程数倍数的效率。..................

#pytorch#分布式#python
【深度学习模型】ChatGPT原理简述

OpenAI推出人工智能聊天模型ChatGPT,很快引起百万用户注册使用,公众号和热搜不断,迅速火出圈,甚至引起各大公司在聊天对话机器人上的军备竞赛。

#深度学习#人工智能
【深度学习模型】讲讲横扫nlp任务的BERT模型

本文讲解Google在2019年发表的论文BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding。

#自然语言处理#bert#深度学习
【语音算法】wav2vec系列原理和使用

wav2vec系列工作由facebook AI Research团队提出,包括wav2vec、vq-wav2vec、wav2vec2.0,效仿nlp上的word2vec,是语音的一种通用特征提取器。本文重点讲解wav2vec2.0模型及其使用方法。

#算法#语音识别#人工智能
【深度学习知识】常见的梯度下降算法原理

梯度下降算法(Gradient Descent Optimization)是神经网络模型训练最常用的优化算法。

#算法#机器学习#人工智能
【深度学习模型】扩散模型(Diffusion Model)基本原理及代码讲解

生成式建模的扩散思想实际上已经在2015年(Sohl-Dickstein等人)提出,然而,直到2019年斯坦福大学(Song等人)、2020年Google Brain(Ho等人)才改进了这个方法,从此引发了生成式模型的新潮流。目前,包括OpenAI的GLIDE和DALL-E 2,海德堡大学的Latent Diffusion和Google Brain的ImageGen,都基于diffusion模型,

#计算机视觉#深度学习#人工智能
    共 30 条
  • 1
  • 2
  • 3
  • 请选择