
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
计算机视觉——图像增强课件图像增强使用增强数据训练翻转切割颜色总结教材1 常用的图像增广方法1.1 翻转和裁剪1.2 改变颜色1.3 结合多种图像增广方法2 使用图像增广进行训练2.1 多GPU训练2.2 单GPU训练3 小结

最好的卷积层超参数?Inception:全都要Inception块GoogLeNet段1$2段3段4&5Inception各种变种Inception-V3,段3Inception-V3,段4Inception-V3,段5总结教材1 Inception块2 GoogLeNet模型3 训练模型4 小结

课件样式迁移易于CNN的样式迁移教材1 方法2 阅读内容和风格图像3 预处理和后处理4 抽取图像特征5 定义损失函数5.1 内容损失5.2 风格损失5.3 全变分损失5.4 损失函数6 初始化合成图像7 训练模型8 小结参考文献

课件多GPU并行数据并行VS模型并行数据并行总结教材1 问题拆分2 数据并行性3 简单网络4 数据同步5 数据分发6 训练7 小结多GPU的简洁实现1简单网络2 网络初始化3 训练4 小结

课件(分布式训练)分布式计算GPU机器架构计算一个小批量同步SGD性能性能的权衡实践的建议总结教材(参数服务器)1 数据并行训练2 环同步(Ring Synchronization)3 多机训练4 键值存储5 小结

在此仅做翻译在这项工作中,我们提出保留网络(RETNET)作为大型语言模型的基础架构,同时实现训练并行性,低成本推理和良好的性能。我们从理论上推导了递归和注意力之间的联系。然后提出了序列建模的保留机制,该机制支持并行、递归和块递归三种计算范式。具体来说,并行表示允许训练并行性。循环表示支持低成本的O(1)推理,从而在不牺牲性能的情况下提高解码吞吐量、延迟和GPU内存。块递归表示促进了具有线性复杂性

课件多个输入通道多个输出通道多个输入和输出通道1×1卷积层二维卷积层总结教材1 多输入通道2 多输出通道3 1×1卷积层4 小结

深度学习简介

1 下载数据集2 读取数据集3 演示4 小结

课件1 转置卷积2 为什么称之为“转置”教材1 基本操作2 填充、步幅和多通道3 与矩阵变换的联系4 小结








