logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

tensorflow重复使用共享变量

在构造CNN以及LSTM等模型的时候,需要重复使用共享权重。但是tensorflow默认是不允许重复使用变量的,会报一些InvalidArgumentError或者Attemping to use uninitialized value等错误。解决方法是使用variable_scope,并且设置该variable_scope的reuse=True。设置方法由两个:with tf.variable_

#cnn#tensorflow
tensorflow判断两个tensor是否完全相同

来源于解决一个csdn中的问答,问答链接:http://ask.csdn.net/questions/652382#answer_460706笔者想到的方法就是直接把bool类型转换到int处理,之后方法就很多样了(求和、求最小值等等,总归是利用一些全一序列的性质)。下面给一个例子: a = tf.placeholder(tf.int32,[2,])b = tf.placeholder(tf.i

#tensorflow#机器学习
Keras设定GPU使用内存大小(Tensorflow backend)

纯粹搬运工,接受英语的请看原网址:Keras Tensorflow backend automatically allocates all GPU memory。通过设置Keras的Tensorflow后端的全局变量达到。import osimport tensorflow as tfimport keras.backend.tensorflow_backend as KTFdef get_se

tensorflow安装所遇问题:libcudnn.so.6:cannot open sharedobject file: No such file or directory

其实问题也不大,但是充分反映了需要仔细阅读错误代码,才能快速准确的解决问题。系统环境:Ubuntu16.04 + GTX1060目的:配置一下python-tensorflow环境问题复现:使用设置/软件与更新/附件驱动 安装nvidia-375使用CUDA-8.0*.run安装CUDA使用cudnn*.tgz安装cudnn5PATH里面加入了/usr/local/cuda-8.

#ubuntu#tensorflow
Tensorflow可以使用tensor的name索引tensor,用于sess.run

具体参考Tensorflow官网:https://www.tensorflow.org/api_docs/python/tf/Session了解此信息的来源:https://stackoverflow.com/questions/37849322/how-to-understand-the-term-tensor-in-tensorflow刚刚发现这个功能,一个直接好处就是原先通过函数构建计算图

#tensorflow#机器学习#深度学习
在tensorflow中使用keras作为高层接口

最近从keras转战tensorflow,原先的代码又不想重写,幸好keras代码可以在tensorflow中使用。详情请参考将Keras作为tensorflow的精简接口。简单应用的话,就是把keras当作tf.layers里面的层来用,placeholder等价于Keras.Input,然后基本和keras里面使用model模块的时候构建方式相同。最后的model也可以使用的,但是我就是想要

#keras#tensorflow#深度学习
tensorflow做交叉验证遇到InvalidArgumentError

原代码的逻辑是train函数构造图,并训练。val_train函数只负责切分训练集。跑代码之后遇到InvalidArgumentError: You must feed a value for placeholder tensor '*' with dtype float后来发现是因为每次train函数都是在default_graph上修改,所以两次train的调用,使得sess重复使用了其内部的

#tensorflow
Tensorflow累加的实现

由于python内部的变量其实都是reference,而Tensorflow实现的时候也没有意义去判断输出是否是同一变量名,从而判定是否要新建一个Tensor用于输出。Tensorflow为了满足所有需求,定义了两个不同的函数:tf.add和tf.assign_add。从名字即可看出区别,累加应该使用tf.assign_add。具体地,笔者需要一个iteration counter类似的变量,即每

#python
Tensorflow中关于Tensor和Variable的理解

刷课过程中思考到Variable和Tensor之间的区别,尝试发现在如下代码中:a = tf.Variable(tf.ones(1))b = tf.add(a,tf.ones(1))a是Variable,而b是Tensor。发现自己对Variable和Tensor之间的区分了解不多,所以搜索了一下,记录自己的思考,欢迎指教。Variable是可更改的(mutable),而Tensor是不可更改的

#tensorflow#机器学习#深度学习
pytorch小坑:需设置CUDA_HOME环境变量,保证全局CUDA环境一致

详见: https://github.com/pytorch/pytorch/issues/22844安装和代码中的CUDA_HOME调用函数逻辑不一致,在多CUDA环境中出现bug。保险的做法是在设置PATH, LD_LIBRARY_PATH等环境变量时顺带把CUDA_HOME也设置了。windows应该是CUDA_PATH环境变量。...

#pytorch
    共 11 条
  • 1
  • 2
  • 请选择