
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
马尔科夫决策过程文章目录马尔科夫决策过程理论讲解马尔科夫性马尔科夫过程马尔科夫决策过程状态值函数question 1: 从一个状态到达另一个状态(直达)是否存在多种动作选择? 或者说一个状态下指定一个动作,是否会达到两个不同的状态?强化学习基本框架智能体与环境不断交互从而产生很多的数据,强化学习算法利用产生的数据修改自身的动作策略。强化学习与深度学习的区别:深度学习如图像识别和语音识别...
文章目录ubuntu下安装docker安装验证docker 添加容器conda 容器配置conda 安装 pytorch实验项目准备附录ubuntu下安装docker参考链接 :菜根谭安装由于apt官方库里的docker版本可能比较旧,所以先卸载可能存在的旧版本sudo apt-get remove docker docker-engine docker-ce docker.io...
文章目录内容框架系列文章Chap 02 基于样本的迁移学习2.1 引用2.2 NTL2.3 ITL内容框架系列文章《迁移学习》chap01 绪论Chap 02 基于样本的迁移学习2.1 引用基于样本的迁移学习的两个关键问题:如何筛选出源域中与目标域数据具有相似分布的有标签样本。如何利用这些“相似”的数据训练处一个更准确的目标域上的学习模型。如果源域和目标域的边缘分布不同,但条件概率分布相同,则将问
基于深度学习的行人重识别研究综述基于表征学习的ReID方法基于度量学习的ReID方法对比损失(Constrastive loss)三元组损失(Triplet loss)四元组损失(Quadruplet loss)难样本采样三元组损失(Triplet loss with batch hard mining, TriHard loss)Reference [原文]基于深度学习的行人重识别研究综述...
参考链接:https://blog.csdn.net/longxinchen_ml/article/details/86533005文章目录宏观看Transformer编码器解码器张量引入微观看自注意力机制矩阵运算实现自注意力机制相关知识:谷歌退出的BERT 模型去到了NLP任务的SOTA,关键成功因素是TransformerTransformer最早是用于机器翻译任务。Transformer的优
文章目录概述Seq2Seq( Sequence-to-sequence )Encoder-Decoder的缺陷Attention 机制的引入Transformer中的Encoder-Decoder概述Encoder-Decoder 并不是一个具体的模型,而是一个通用的框架。Encoder 和
在本文中,我们提出了一种新的基于nerf的参数化头部模型HeadNeRF,它将神经辐射场集成到头部的参数表示中。它可以在GPU上实时渲染高保真的头部图像,支持直接控制生成的图像的渲染姿态和各种语义属性。与现有的相关参数化模型不同,HeadNeRF采用神经辐射场代替传统的三维纹理网格作为新的三维代理,使得HeadNeRF能够生成高保真图像。克服的困难:原始NeRF的渲染过程计算量大,阻碍了参数NeR

文章目录LLFF项目了解尝试利用llff为自己的数据集生成pose。MIP是什么?几个重要的链接地址github-llff : https://github.com/fyusion/llffgithub-yen: https://github.com/yenchenlin/nerf-pytorchgithub-2020eccv: https://github.com/bmild/nerfLLFF项
文章目录概述Seq2Seq( Sequence-to-sequence )Encoder-Decoder的缺陷Attention 机制的引入Transformer中的Encoder-Decoder概述Encoder-Decoder 并不是一个具体的模型,而是一个通用的框架。Encoder 和







