
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
目的,起源在输出的阶段,解决不同维度特征尺度不同的问题(??)和标准化对比:为何需要 normaliztion特征之间的 尺度不同比如 car 的 里程特征 : 1000 to 100,000司机的年龄:0 到 100;这样的话,里程这个特征,就会导致梯度爆炸所以我们需要normalization这样的话,尺度就想通了batch normalization 让层与层之间更稳定另外一个问题在某一层,
文章目录在普通 的 fully connect layers在 cnn 中计算的例子最后的参数参考:本视频 内容:cnn 里面 的 可学习参数是啥如何 计算 cnn 里面 的可学习 参数 的个数计算 的示范在普通 的 fully connect layersweights 的计算方式如下:在 cnn 中首先:filterl == kernel把三个 部分 的 参数 加起来吧,就行了计算的例子第一个
什么 是 fune-tuning很像 transfer learing,从 一个 已知的模型,迁移学习 到另外 一个模型:从 轿车 到 卡车:为什么 需要 微调你可以复用 之前 已经训练好的模型,只需要 稍微 修改, 会节省你的时间从头开始不容易所以我们需要 fune tuning要求 : 两个 模型对应 的 任务 ,要 类似辨别 car --> truck 就是个 可行的冻结 weight
看这篇论文look deeper into depth: monocular depth estimation with semantic booster and attention-driven loss的时候,碰到个用联合的老哥: jianbo jiao当时,第一遍 读文章 的概要的阅读笔记,请看 这里摘要,从前人的工作 overview 一下jianbo 联合 了 语义 和深度。其实有 一些
关键词长尾:有很长的尾巴,这个意思;注意力驱动的损失函数;还是监督的有两个任务:深度预测和语义标注任务,可以相互促进SOTA 性能: state of the art ,牛逼的意思这篇文章针对的问题: 使用朴素损失均等对待所有区域的像素,这会造成小深度值的像素,对损失函数的影响占据主导地位,进而,使得模型无法有效预测远距离物体的深度协同网络中,用信息传播策略,以动态路由的形式,共享了标签信息给深度
看这篇论文look deeper into depth: monocular depth estimation with semantic booster and attention-driven loss的时候,碰到个用联合的老哥: jianbo jiao当时,第一遍 读文章 的概要的阅读笔记,请看 这里摘要,从前人的工作 overview 一下jianbo 联合 了 语义 和深度。其实有 一些
在容器中启动 jupyter notebook 的时候,请指定 ip 为 0.0.0.0aka:原因docker启动的时候,我们的命令是 -p 8888:8888比如:sudo nvidia-docker run -it -p 8888:8888 --ipc=host -v /home/paul/code:/code --name paul-notebookmy_tf:2.0此时 使用 docke
在容器中启动 jupyter notebook 的时候,请指定 ip 为 0.0.0.0aka:原因docker启动的时候,我们的命令是 -p 8888:8888比如:sudo nvidia-docker run -it -p 8888:8888 --ipc=host -v /home/paul/code:/code --name paul-notebookmy_tf:2.0此时 使用 docke
阿里云的对象存储服务,oss 简介在电子科大的21学年的 数据库新技术 课程中,我接触到了一个 对象存储的 概念。过往接触的就是那些 mysql 这些二维表的数据库,在做一些java 项目,比如 springboot 的项目中,也是直接讲对象的字段,逐一插入 数据库 的 一个 row;没有那种直接存储对象的数据库。后来在写博客的时候,发现有人用阿里云的oss 对象存储作为图床。所以,这篇文章就整理
2017 年的CVPRfrom youtubeLink是啥东西然后我们的工作能: 给出 一个 深度 图like this:为啥 depth 有用导航,机器人拿东西,虚拟现实,桌子有多远,多大为啥用 monocular:单目相机?贫穷和普适monocular 能行吗?既然 探测器 和 海盗头子 都能 ,我们也能以前的方法ground truth 值很难获得kitti 数据集 本身 也有误差或者说 遗
