logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Ubuntu18.04下搭建深度学习环境(tensorflow CPU GPU、Keras、Pytorch、Pycharm、Jupyter)

     以前一直都是在Windows上玩CPU版的Tensorflow,现在有时间弄一下,买了一根16GB的内存条扩容上。以前是Win10+Ubuntu双系统,以前的Ubuntu上由于做实验有一堆的错误待解决,现在懒得折腾了,直接装成Ubuntu单系统。我的电脑配置如下:CPU:Intel Core i7-7770HQ内存:24GB显卡:NVIDIA 940MX硬盘:128GBS...

【论文阅读笔记】Sam3d: Segment anything model in volumetric medical images[

与传统的逐层处理不同,SAM3D能够在整个体积上处理图像,更有效地捕捉切片间的深度关系,同时维持模型的简单性和计算效率。:通过在多个医学图像数据集上的实验,只需要单2080TI GPU,SAM3D显示了与当前最先进的3D神经网络和基于Transformer的模型相当的性能(其实弱很多),同时在参数数量上大大减少。去除了SAM中的prompts Encoder:因为解码器必须处理 3D 体积数据,所

文章图片
#论文阅读
[学习笔记]Pytorch迁移学习实例

本文参考Pytorch官方教程,个人觉得代码结构写得非常好,很值得借鉴使用,所以转发分享,另外将调试中遇到的问题和解决一起说明一下。目前在CNN上的迁移学习的主要场景主要有两大类:1.CNN微调:使用预训练的CNN参数初始化网络,而不是随机初始化网络,如使用在imagenet上进行预训练的网络参数进行初始化;2.将CNN作为固定的特征提取方式:除了最后的全连接层,其余层全部冻结,最后的...

爬虫学习之8:使用网站API获取数据(持续更新)

      很多网站提供了API供开发者获取数据用,通常返回的数据为JSON格式,本文以百度开放者平台为例对通过API进行数据获取进行实验,由于百度API接口很多,后续会把实验的接口陆续补充上去,都是很简单的程序,以后可以以此为基础编写更综合的应用程序。       百度API的使用步骤都差不多,注册百度开发者平台->获得免费的AppID和Key->构造开发者文档中提供

CNN注意力机制的进化史:深度解析10种注意力模块如何重塑卷积神经网络

从SE到SSCA,注意力机制正从"单一增强"走向"协同进化"。下一个突破点会是动态可重构的注意力吗?让我们共同见证深度学习的新篇章!

文章图片
#cnn#人工智能#神经网络
视觉-语言预训练模型综述

Li F, Zhang H, Zhang Y F, et al. Vision-Language Intelligence: Tasks, Representation Learning, and Large Models[J]. arXiv preprint arXiv:2203.01922, 2022.按照时间顺序将VLP模型分为三个阶段:特定任务的方法,视觉语言预训练(VLP)方法,以及由大

#计算机视觉#深度学习#机器学习
【论文阅读笔记】MimicNet: Mimicking manual delineation of human expert for brain tumor segmentation from mul

通过这种方法,模型可以更有效地学习并适应不同复杂度的分割任务,从而在脑肿瘤分割领域中实现更好的性能。这种逐步学习的方法有助于模型更好地理解和适应脑肿瘤分割任务的复杂性,从而提高最终分割结果的准确性和一致性。这种方法通过针对不同肿瘤等级进行特定的训练,有助于模型更准确地分割各种类型的脑肿瘤,并提高其在实际临床应用中的有效性和可靠性。:接着,在WT区域内,根据T1对比增强(T1ce)图像中的高信号和低

文章图片
#论文阅读
No More Adam: 新型优化器SGD_SaI

SGD-SaI方法不仅在传统卷积神经网络(CNN)任务上表现良好,在Transformer、ViT、GPT-2等参数分布高度异质的大模型任务中,也能够实现与主流自适应方法(AdamW、Adam-mini等)相当甚至更优的性能,同时具备更好的超参数鲁棒性和极低的内存占用,显著提升了大模型训练的可扩展性与资源利用效率。实验表明g-SNR在参数块内具有时间上的稳定性(即初始化时刻的分布基本决定整个训练过

#人工智能
No More Adam: 新型优化器SGD_SaI

SGD-SaI方法不仅在传统卷积神经网络(CNN)任务上表现良好,在Transformer、ViT、GPT-2等参数分布高度异质的大模型任务中,也能够实现与主流自适应方法(AdamW、Adam-mini等)相当甚至更优的性能,同时具备更好的超参数鲁棒性和极低的内存占用,显著提升了大模型训练的可扩展性与资源利用效率。实验表明g-SNR在参数块内具有时间上的稳定性(即初始化时刻的分布基本决定整个训练过

#人工智能
    共 35 条
  • 1
  • 2
  • 3
  • 4
  • 请选择