logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【Keras】TensorFlow Hub 模型复用

在软件开发中,我们经常复用开源软件或者库,避免了相同功能的代码重复开发,减少了大量的重复劳动,也有效缩短了软件开发周期。代码复用,对软件产业的蓬勃发展,有着极大的助推作用。相应的,TF Hub 目的是为了更好的复用已训练好且经过充分验证的模型,可节省海量的训练时间和计算资源。这些预训练好的模型,可以进行直接部署,也可以进行迁移学习(Transfer Learning)。对个人开发者来说,TF Hu

#tensorflow#keras#深度学习
【机器学习】 下采样

定义:对于一个样值序列间隔几个样值取样一次,这样得到新序列就是原序列的下采样。实际上,下采样就是抽取。缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图。放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,从而可以显示在更高分辨率的显

#机器学习
【Keras】TensorFlow分布式训练

当我们拥有大量计算资源时,通过使用合适的分布式策略,我们可以充分利用这些计算资源,从而大幅压缩模型训练的时间。针对不同的使用场景,TensorFlow 在 tf.distribute.Strategy 中为我们提供了若干种分布式策略,使得我们能够更高效地训练模型。一、单机多卡训练: MirroredStrategytf.distribute.MirroredStrategy 是一种简单且高性能的,

#tensorflow#keras#分布式
【计算机基础】tmux & nohup

一、tmux# 查看有所有tmux会话指令:tmux ls# 新建tmux窗口指令:tmux new -s <session-name># 重命名会话指令:tmux rename-session -t <old-name> <new-name># 暂时退出会话(后台保持运行)快捷键:Ctrl+b 然后d# 重新连接会话指令:tmux a -t <sessi

#linux#运维#服务器
【机器学习】神经网络中的优化器

SGD、Momentum、NAG和AdaGrad这篇讲的很好RMSProp、Adam这篇讲的很好这篇可以看看递推

#神经网络#深度学习#人工智能
【机器学习】 下采样

定义:对于一个样值序列间隔几个样值取样一次,这样得到新序列就是原序列的下采样。实际上,下采样就是抽取。缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图。放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,从而可以显示在更高分辨率的显

#机器学习
【计算机基础】「效率」使用VScode连接远程服务器进行开发

使用VScode连接远程服务器进行开发,可参考以下流程「效率」使用VScode连接远程服务器进行开发

【机器学习】 下采样

定义:对于一个样值序列间隔几个样值取样一次,这样得到新序列就是原序列的下采样。实际上,下采样就是抽取。缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图。放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,从而可以显示在更高分辨率的显

#机器学习
【机器学习】 模拟退火算法

【爬山算法】爬山算法是一种贪心搜索算法,该算法每一步从当前解的临近解空间中选择一个最优解作为当前解,直至达到某个局部最优解。【模拟退火算法】模拟退火算法也是一种贪心算法,但在它的搜索过程中引入了一个随机因素——以一定的概率来接受一个比当前解要差的解。故而模拟退火算法有可能跳出局部的最优解,达到全局的最优解。即:若移动后得到最优解,则总是接受该移动;若移动后的解比当前解差,则以一定的概率接受移...

#模拟退火算法#爬山算法
    共 16 条
  • 1
  • 2
  • 请选择