logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Wasserstein GAN:如何解决GANS训练崩溃,深入浅出数学原理级讲解WGAN与WGAN-GP

今天我们来深入探讨Wasserstein GANs (WGANs),这是生成对抗网络(GANs)发展史上一个里程碑式的改进。它显著提升了原始GAN训练的稳定性,并提供了更有意义的损失度量。我会从基础概念讲起,逐步深入到核心思想和数学细节

#生成对抗网络#人工智能#神经网络 +3
PyTorch 深度强化学习实战:从零手写 PPO 算法训练你的月球着陆器智能体

很多同学在学习 PPO(Proximal Policy Optimization)时,往往止步于复杂的数学公式。理论看懂了,真要动手写代码时却无从下手。本文不谈晦涩的公式推导,而是聚焦于工程实现。我们将基于 PyTorch,从环境搭建、网络设计(Actor-Critic)、到核心的优势函数计算与 Clip 更新,一步步手写代码,最终训练出一个能完美降落的 LunarLander 智能体。如果你也想

#人工智能#pytorch#机器学习 +4
PyTorch 深度强化学习实战:从零手写 PPO 算法训练你的月球着陆器智能体

很多同学在学习 PPO(Proximal Policy Optimization)时,往往止步于复杂的数学公式。理论看懂了,真要动手写代码时却无从下手。本文不谈晦涩的公式推导,而是聚焦于工程实现。我们将基于 PyTorch,从环境搭建、网络设计(Actor-Critic)、到核心的优势函数计算与 Clip 更新,一步步手写代码,最终训练出一个能完美降落的 LunarLander 智能体。如果你也想

#人工智能#pytorch#机器学习 +4
生成式AI基石之一:变分自编码器(VAE)详解:从架构到数学的深度指南

VAE 是一个强大的生成模型。它通过引入概率思想,将编码器从一个确定性的映射转变为一个概率分布的参数化器,并利用重参数化技巧和精心设计的损失函数(重建损失 + KL 散度),成功地构建了一个连续、结构化的潜在空间。这不仅使其能够高质量地压缩和重建数据,更赋予了它从该空间中采样以创造全新数据的能力,为无监督学习和数据生成领域开辟了新的道路。

文章图片
#python#算法#机器学习 +3
Vision Transformer (ViT) 详解:当Transformer“看见”世界,计算机视觉的范式革命

长久以来,卷积神经网络(CNN)凭借其精心设计的归纳偏置(inductive biases),无可争议地统治着计算机视觉领域。然而,一篇名为《An Image is Worth 16x16 Words》的论文彻底改变了这一格局,它所提出的 Vision Transformer (ViT) 模型,成功地将源于自然语言处理(NLP)领域的 Transformer 架构直接应用于图像识别,并取得了惊人的

文章图片
#transformer#深度学习#人工智能
Transformer内部数据流动:从输入到输出的维度变换,超详细!!!

我们假设一个极简的翻译任务,并设定一套小巧的参数,方便观察。2123100。

#transformer#深度学习#人工智能
深度学习中的性能加速利器:深入浅出学习算子融合(Operator Fusion)

算子融合(Operator Fusion)就是将这些连续的、可以合并的算子(BN,RELU)在计算层面上融合成一个“超级算子”。在这个融合的Kernel中,conv_result 和 bn_result 都是存在于GPU核心旁边的极快存储中的临时变量,它们未被写入到位于显卡PCB板上的全局显存颗粒中。:指的是一个基本的操作,比如卷积(Conv2d)、批归一化(BatchNorm2d)、激活函数(R

文章图片
#深度学习#学习#人工智能 +4
U-Net 全解析:从网络架构、核心原理到 PyTorch 代码实现

U-Net 是一个非常经典且极其重要的卷积神经网络(CNN)架构。它最初是为了生物医学图像分割而设计的,但由于其特别的设计,如今已经成为各种图像分割任务乃至 AI 图像生成模型(如 Stable Diffusion)的核心组件。

文章图片
#网络#人工智能#计算机视觉 +3
Transformer模型Decoder原理精讲及其PyTorch逐行实现

最后输出概率最高的词,比如“我”,被选为第一个生成的词。: 每个词的向量都吸收了来自整个句子的上下文信息,变成了一个新的、更丰富的向量。编码器的唯一目标是:接收一个完整的输入序列(例如,一个英文句子),然后为这个序列生成一个包含丰富上下文信息的、高质量的向量表示(我们称之为。这个包含了位置信息的向量矩阵,现在要进入由 N 层(比如6层)完全相同的编码器层(Encoder Layer)组成的堆栈。它

#transformer#pytorch#深度学习 +3
Vision Transformer (ViT) 详解:当Transformer“看见”世界,计算机视觉的范式革命

长久以来,卷积神经网络(CNN)凭借其精心设计的归纳偏置(inductive biases),无可争议地统治着计算机视觉领域。然而,一篇名为《An Image is Worth 16x16 Words》的论文彻底改变了这一格局,它所提出的 Vision Transformer (ViT) 模型,成功地将源于自然语言处理(NLP)领域的 Transformer 架构直接应用于图像识别,并取得了惊人的

文章图片
#transformer#深度学习#人工智能
    共 12 条
  • 1
  • 2
  • 请选择