logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【tensorflow】V1和V2不兼容,导致的常见问题及解决办法

Tensorflow版本不同导致的问题及解决办法tf2中删除或者改变了tf1的中很多函数接口,若是在tf2的环境中中用了tf1的代码,则会报很多错。两个解决办法一是换回tf1.x版本,eg:pip install tensorflow==1.4.0二是讲tf1的代码改为tf2可以运行的:将使用了tf1代码中的import tensorflow as tf更改为:import tensorflow.

#tensorflow#bug#python
【疑难杂症】allennlp安装报错:Installing build dependencies ... error

因为allennlp是基于pytorch的NLP库,所以allennlp的版本会受pytorch的版本影响,若是直接pip install allennlp,则可能会安装新的pytorch版本。最后,给一个基于pytorch1.7.1的配套方案,若你也是这个版本,则可以直接按这个配套方案安装,若是不,则参考上面的实验找到合适的allennlp版本。而官方没有给出一个配套的建议,我的方法是实验,首先

#pytorch
【tensorflow】V1和V2不兼容,导致的常见问题及解决办法

Tensorflow版本不同导致的问题及解决办法tf2中删除或者改变了tf1的中很多函数接口,若是在tf2的环境中中用了tf1的代码,则会报很多错。两个解决办法一是换回tf1.x版本,eg:pip install tensorflow==1.4.0二是讲tf1的代码改为tf2可以运行的:将使用了tf1代码中的import tensorflow as tf更改为:import tensorflow.

#tensorflow#bug#python
20分钟本地部署ChatGLM3-6B

和chatglm2相比,输出的结果似乎没有明显的改变,当最大的一个区别在于,chatglm2-6B有专门的int4版本,而chatglm3-gb取消了这个版本,在代码中可以直接指定量化版本。访问改地址即可进行对话:http://localhost:8501/email的地方直接回车,后面就会加载模型了。注意:chatglm3-6B约11G大小。

文章图片
ChatGLM3-6B的本地api调用

content”: “从前,在一个遥远的国度里,有一个美丽的村庄。有一天,一位智者来到了村子的广场,他跟村民们分享了这样一个故事:\n\n从前,有一片荒芜的土地,上面长满了各种美丽的花草。有一天,一只小鸟飞过来,告诉村子里的居民们,这片土地是一个魔法之地,只要每个人都在广场上许下一个美好的愿望,魔法”,可以看到,ChatGLM3-6B的默认调用接口和传递参数,及返回结果的参数与chatGLM2-6

文章图片
【hadoop】解决浏览器不能访问Hadoop的50070、8088等端口

问题:在虚拟机启动hadoop集群后,在window浏览器无法访问http://master:50070、http://master:8088等集群监控界面。问题排查:首先在windows里ping一下是否能通:若不能ping通,试一下ping IP地址,这里master的IP地址为192.168.128.130.若IP地址能ping通,则试一下在浏览器中将master换成IP地址访问一下:如果能

#hadoop
【tensorflow】为什么CUDA装好了,Tensorflow-GPU不能用?

为什么CUDA装好了,Tensorflow-GPU不能用?当我们把CUDA、cudnn、tensorflow-GPU都装好,但在tensorflow GPU测试tf.test.is_gpu_avaiable()却始终返回false,怎么办?import tensorflow as tftf.test.is_gpu_available()FALSE可能的原因如下:——————————————————

#tensorflow
【catboost】官方调参教程

CatBoost官方教程:调参本文翻译至官方原文:https://catboost.ai/docs/concepts/parameter-tuning.htmlCatBoost为参数调整提供了灵活的界面,可以对其进行配置以适合不同的任务。本节包含有关可能的参数设置的一些提示。catBoost提供了为Python、R语言和命令行都提供了可使用的参数,其中Python和R的完全相同,命令行参数格式则有

#机器学习#人工智能#python +1
    共 11 条
  • 1
  • 2
  • 请选择