
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
虚拟环境建好后,python使用的是虚拟环境的python,但是pip却不是虚拟环境的pip。
复制粘贴了其他人的.bashrc 文件的内容,但是后来我发现其实不用,因为启动终端时,会自动将etc/profile的内容执行一遍,一般管理员会把你需要的软件的路径放到这个里面,你打开终端的时候就会自动运行,/tj/lzm/envs/pt/bin/pip,而是别人的文件夹下的一个pip,这是由于我在之前为了使用服务器上已经安装好的anaconda,我激活环境后,conda init过程并没有将我的

Spark的安装部署与基本原理总结 (linux系统)
安装部署Spark1. 将安装包拖入到Linux虚拟机的桌面,然后进入桌面所在的文件路径,对Spark进行解压和重命名等操作2.通过如下Linux命令进入Spark解压文件中的conf文件夹,并根据Spark自带的模板创建spark-env.sh配置文件3.通过在Linux终端使用命令“vim spark-env.sh”修改配置文件spark-env.sh。在配置文件的空白处,添加如下内容4.在s

Hbase的实践操作(虚拟机Linux系统)
(一).Hbase的shell操作1.进入hbase shell在启动HDFS和Hbase之后,在Linux客户端输入“hbase shell”命令将进入Hbase Shell。打开Hbase Shell之后,首先输入“help”命令,Hbase Shell会显示Hbase所提供的所有Shell命令。2.创建、查看、删除命名空间建立一个test的命名空间,具体的命令如下通过如下describe命令

到底了