logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【CVPR 2022】Point-BERT:Pre-training 3D Point Cloud Transformers with Masked Point Modeling

文章目录3. 参考资料3. 参考资料CVPR 2022 | Point-BERT: 基于掩码建模的点云自注意力模型预训练 – 作者亲讲:https://zhuanlan.zhihu.com/p/484336830

#bert#深度学习
【李宏毅2021机器学习深度学习】2-1 Phoneme Classification【hw2】

文章目录写在前面标准提示:实验记录:1. Sample code2. 数据归一化,添加了BN,大的batch_size由64改为128,修改激活函数为Relu,添加plot_learning_curve工具看loss曲线,3. (overfitting)make model simpler(直接去掉第三层全连接层)4. batch_size直接改为5125. lr = 0.001(默认参数)6.

#深度学习#机器学习#人工智能
【李宏毅2021机器学习深度学习】Transform

文章目录写在前面Transform是什么硬train一发(语音识别)语音合成Seq2seq其它应用(文字->文字)其他应用QA特制化模型有更好的效果,参考往年教程其它应用(文法解析)其它应用(Multi-label Classification,硬做)Object Detection(硬做)Seq2seqEncoder其它Transform架构(更多)DecoderAutoregressiv

#机器学习#深度学习#语音识别
【论文阅读】Conformer:Convolution-augmented Transformer for Speech Recognition. 2005.08100

文章目录1. 四个问题2. 论文介绍3. 参考资料1. 四个问题解决什么问题语音识别(speech recognition)用了什么方法Conformer(结合Transformer和CNN)how to combine convolution neural networks and transformers to model both local and global dependencies

#深度学习
【李宏毅2021机器学习深度学习】hw11 Domain Adaptation 作业讲解视频

https://www.bilibili.com/video/BV1zA411K7en?p=44文章目录Domain Adaptation的概论用GTA5的资料作 Source Domain可行吗?这次作业任务Dataset(Training和Testing的数据都是平均的,Testing每个类都有1W张,利用这个性质?)作业提示DaNN Structure(Domain Adversarial

#机器学习#深度学习
到底了