logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Semi-supervised medical image segmentation via uncertainty rectified pyramid consistency 半监督医学图像分割

现在由于深度学习有监督分割基本也搞到头了,各种新网络新结构层出不穷,人们把精力主要放到了半监督分割任务上了。半监督学习旨在通过结合少量标记数据和大量未标记数据来取得可喜的结果,因此关键步骤是为未标记数据设计有效的监督。因此,已经提出了许多方法来有效地利用未注释的图像。今天看到一篇毕竟好的论文,整个思路并不复杂,给人感觉,原来还可以这么弄呀。通过图片,我们可以发现,这是一个典型的UNet 神经网络,

#python#人工智能
Masked Feature Prediction 一种新的自监督学习算法

最近发现了一篇挺好的论文,虽然不是语义分割方面的论文,但是看完以后还是很有启发性的。论文名称:Masked Feature Prediction for Self-Supervised Visual Pre-Training 这是一种新的自监督学习算法,当然依然利用最近何大佬提出的mask-and-predict这样的思想来实现自监督学习预训练。其中最大的区别在于利用mask后的图像直接在特征空间

#算法#深度学习#计算机视觉
UCTransNet 又一个transformer的医学图像语义分割模型

这篇文章也是一个医学图像语义分割的模型,同样是基于U-Net,UCTransNet文章一开始分析了,U-Net 的各种形式,对于大家熟悉的跳连接进行了分析。发现由于编解码器阶段特征集不兼容,并不是每个跳跃连接设置都是有效的,甚至一些跳跃连接会对分割性能产生负面影响;原有的U-Net在某些数据集上比没有跳过连接的U-Net更差。后来作者提出了一种新的模型结构,具体来说,CTrans(Channel

#transformer#深度学习#自动驾驶
语义分割方面的思考

我个人感觉现在深度学习的语义分割对普通人越来越不友好了,现在分割网络逐渐开始拼财力拼服务器算力了,对于普通人来说跑一些简单的网络做一些简单的修改发一些好文章越来越难了。现在大组逐渐开始讲究团队合作了。对于我们普通人来说只能走一步看一步了。

#深度学习
多尺度特征的融合操作

在目标检测和分割的任务中,我们都喜欢用多尺度 特征融合操作来提高准确率。以语义分割为例,大家在看到U-Net 以后想到的第一个自认为的创新就是加上 ASPP 结构。加上一个特征金字塔结构。然后做实验发现整个效果还是不错的。其实这个特征金字塔的结构就是一个多尺度特征融合的例子。在这里也可以证明了多尺度特征融合在深度学习中的好处。那为什么多尺度融合有效果呢。我们知道现在的检测和分割网络基本都喜欢用卷积

#神经网络#深度学习
医学图像分割--U-Net的颅内血管的分割 keras 实现

最近在进行医学图像的处理研究,主要是进行了颅内血管的CT图像的分割研究。现阶段进行深度学习的图像分割的研究基本就是几种比较成熟的几个方法,FCN,u-net deeplab等一些方法。具体方法的操作,我这里就不细说了。大家可以自己去看看论文。现阶段进行医学图像的深度学习处理的方法,最大的瓶颈就是数据量比较少,导致网络训练不是很理想。由于进行颅内血管的数据量也比较少,所以需要进行一定的数据量...

#深度学习
多尺度特征的融合操作

在目标检测和分割的任务中,我们都喜欢用多尺度 特征融合操作来提高准确率。以语义分割为例,大家在看到U-Net 以后想到的第一个自认为的创新就是加上 ASPP 结构。加上一个特征金字塔结构。然后做实验发现整个效果还是不错的。其实这个特征金字塔的结构就是一个多尺度特征融合的例子。在这里也可以证明了多尺度特征融合在深度学习中的好处。那为什么多尺度融合有效果呢。我们知道现在的检测和分割网络基本都喜欢用卷积

#神经网络#深度学习
spyder 出现 An error ocurred while starting the kernel 问题 解决方法

我在使用spyder 运行keras 程序时每次都出现了An error ocurred while starting the kernel 。最后查了好几种方法,才解决了。下面我就分享一下。第一种方法:在终端中输入spyder --reset,重置spyder配置,问题得以解决。这种方法我试了一下 发现问题没有解决。各位可以试试看。也许你的可以解决。第二种方法在终端输入了c...

知识蒸馏,teacher and studenet 网络

最近在学习一些分类网络,发现现在直接使用新的网络结构提高整个分类准确度已经很难了,现在人们提出了各种新型的训练思路。我发现这个知识蒸馏训练的思路真的很好。我看完以后发现可以做的事很多。知识蒸馏是利用从一个大型模型或模型集合中提取的知识来训练一个紧凑的神经网络。利用这些知识,我们可以在不严重影响紧凑模型性能的情况下,有效地训练小型紧凑模型。大、小模型我们称大模型或模型集合为繁琐模型或教师网络,而称小

#深度学习#神经网络
keras 训练是 各种loss 变化情况

在使用keras 训练网络时,虽然网络设计好了,数据也加载进去了,但是发现训练时候总是出现各种各种稀奇古怪的问题。我在这里就列举几个常见的问题。供大家参考一下。当val_loss曲线或val_acc曲线震荡不平滑时的原因可能如下:1 学习率可能太大2 batch size太小3 样本分布不均匀4 缺少加入正则化大家可以在这几个方面去进行调整,一步一步的调整,先调整学习率,然后再...

    共 19 条
  • 1
  • 2
  • 请选择