Linux通过anaconda来安装python
consumer.commitAsync(new OffsetCommitCallback() {@Overridepublic void onComplete(Map<TopicPartition, OffsetAndMetadata> offsets, Exception exception) {if (exception != null) {System.out.println(
目 录
1.anaconda
简介
1.1 概念
anaconda
是什么?您的数据科学工具包,使用开源社区构建的最佳Python软件包;也就是说是python
工具的基础上自带了很多常用且稳定的python
工具包,如图1.1,省去你自己安装各种包的需求,当然也不是所有的包都有,比如目前(20210425)的版本就没有pyspark(python操作spark)
的包,问题也不大,和python一样直接利用pip install pyspark
即可;缺少的包可以用python内的指令补全;
1.2 官网
1.3 下载
anaconda下载界面
点击网页的Download
,会跳转到如图;目前(20210425)是python3.8
,也可以选择old version进行下载;
1.4 在Linux下和源生态python的使用对比(个人感觉)
- 安装较为简单;
- 安装好后在你的安装目录
$ANACONDA_HOME\bin
下有python
的解析器,该目录也是python
的绝对路径,知道了这个那使用python
就和你使用源生态的没啥区别了(该目录下python3
和python
都是python3.8
的软链接,即快捷方式!);
(base) [hadoop@node1 bin]$ ls -al | grep python
-rwxrwxr-x 1 hadoop supergroup 259 Apr 20 11:24 ipython
-rwxrwxr-x 1 hadoop supergroup 259 Apr 20 11:24 ipython3
lrwxrwxrwx 1 hadoop supergroup 9 Apr 20 11:24 python -> python3.8
lrwxrwxrwx 1 hadoop supergroup 9 Apr 20 11:24 python3 -> python3.8
-rwxrwxr-x 2 hadoop supergroup 14727600 Sep 4 2020 python3.8
-rwxrwxr-x 1 hadoop supergroup 3537 Apr 20 11:24 python3.8-config
lrwxrwxrwx 1 hadoop supergroup 16 Apr 20 11:24 python3-config -> python3.8-config
2.anaconda
安装
2.1 下载
Linux系统网络顺畅,则直接;否则在官网下载好以后再上传到Linux相应目录下;博主放在了/data/tool/anaconda
下;
注意:此处下载的Anaconda3-2020.11-Linux-x86_64.sh
还不是软件本身,只是一个安装启动脚本;类似win下你下载的安装包启动文件;
wget https://repo.anaconda.com/archive/Anaconda3-2020.11-Linux-x86_64.sh
2.1 安装设置
启动刚刚下载好的脚本,并开始设置安装相关的配置,流程如下;
# 切换到下载好的目录/data/tools/anaconda
cd /data/tools/anaconda
# 运行Anaconda3-2020.11-Linux-x86_64.sh
bash Anaconda3-2020.11-Linux-x86_64.sh
#然后会出现很长的一段交互式询问,这里只拿出关键性的内容来说明下
Welcome to Anaconda3 2020.11
In order to continue the installation process, please review the license
agreement.
Please, press ENTER to continue
>>>
# 上面这里直接按ENTER走你,然后有一大堆的安装说明,别管,一直按着ENTER不放;
# 直到出现以下内容,按多了会出现的多,没关系,因为不输入yes、no会一直询问你
Do you accept the license terms? [yes|no]
[no] >>>
Please answer 'yes' or 'no':'
>>>
Please answer 'yes' or 'no':'
>>>
Please answer 'yes' or 'no':'
>>>
# 上面的询问输入yes,接下来的地方很关键
# 上面的询问输入yes,接下来的地方很关键
# 上面的询问输入yes,接下来的地方很关键
# 上面的询问输入yes,接下来的地方很关键
# 指定你的anaconda3安装位置,你要是不改直接按了ENTER 默认是安装在`/home/你启动脚本的用户/anaconda3`
# 你要想改到其他地方,就先输入你的账户有权限且合法的路径后再按ENTER 键,如我这里选/data/tools/anaconda/anaconda3,
# 该目录不用先建好,建到/data/tools/anaconda这一层就行,建好反而会报错ERROR: File or directory already exists:/usr/local/tools/anaconda3/anaconda3 If you want to update an existing installation, use the -u option.
Anaconda3 will now be installed into this location:
/home/hadoop/anaconda3
- Press ENTER to confirm the location
- Press CTRL-C to abort the installation
- Or specify a different location below
[/home/hadoop/anaconda3] >>> /data/tools/anaconda/anaconda3
# 上面输入/data/tools/anaconda/anaconda3再按回车,表示需要安装在/data/tools/anaconda/anaconda3目录下,
# 然后稍等下,去泡杯咖啡或者找MM聊聊天
Preparing transaction: done
Executing transaction: done
installation finished.
Do you wish the installer to initialize Anaconda3
by running conda init? [yes|no]
[no] >>> yes
# 出现上面的提示时,输入yes,则马上安装完成,并自动退出交互式安装过程
# 进入到安装软件的地方
cd /data/tools/anaconda/anaconda3
# 预览得到以下
[hadoop@node1 anaconda3]$ ls -al
total 224
drwxrwxr-x 27 hadoop supergroup 4096 Apr 25 17:39 .
drwxrwxr-x 3 hadoop supergroup 23 Apr 25 17:38 ..
drwxrwxr-x 2 hadoop supergroup 12288 Apr 25 17:39 bin
drwxrwxr-x 2 hadoop supergroup 30 Apr 25 17:39 compiler_compat
drwxrwxr-x 2 hadoop supergroup 19 Apr 25 17:39 condabin
drwxrwxr-x 2 hadoop supergroup 16384 Apr 25 17:39 conda-meta
drwxrwxr-x 3 hadoop supergroup 20 Apr 25 17:39 doc
drwxrwxr-x 2 hadoop supergroup 6 Apr 25 17:39 envs
drwxrwxr-x 7 hadoop supergroup 77 Apr 25 17:39 etc
drwxrwxr-x 39 hadoop supergroup 12288 Apr 25 17:39 include
drwxrwxr-x 3 hadoop supergroup 25 Apr 25 17:39 info
drwxrwxr-x 23 hadoop supergroup 36864 Apr 25 17:39 lib
drwxrwxr-x 4 hadoop supergroup 97 Apr 25 17:39 libexec
-rw-r--r-- 1 hadoop supergroup 11799 Nov 13 05:37 LICENSE.txt
drwxrwxr-x 3 hadoop supergroup 18 Apr 25 17:39 man
drwxrwxr-x 65 hadoop supergroup 4096 Apr 25 17:39 mkspecs
drwxrwxr-x 2 hadoop supergroup 252 Apr 25 17:39 phrasebooks
drwxrwxr-x 682 hadoop supergroup 49152 Apr 25 17:39 pkgs
drwxrwxr-x 27 hadoop supergroup 4096 Apr 25 17:39 plugins
drwxrwxr-x 25 hadoop supergroup 4096 Apr 25 17:39 qml
drwxrwxr-x 2 hadoop supergroup 175 Apr 25 17:39 resources
drwxrwxr-x 2 hadoop supergroup 203 Apr 25 17:39 sbin
drwxrwxr-x 30 hadoop supergroup 4096 Apr 25 17:39 share
drwxrwxr-x 3 hadoop supergroup 22 Apr 25 17:39 shell
drwxrwxr-x 3 hadoop supergroup 146 Apr 25 17:39 ssl
drwxrwxr-x 3 hadoop supergroup 12288 Apr 25 17:39 translations
drwxrwxr-x 3 hadoop supergroup 19 Apr 25 17:39 var
drwxrwxr-x 3 hadoop supergroup 21 Apr 25 17:39 x86_64-conda_cos6-linux-gnu
#进入bin目录下
cd bin
[hadoop@node1 bin]$ ./python -V
Python 3.8.5
# 到此安装就算完成了,要想在任何地方以及Shell脚本上直接python就能引用到此处的python解析器,还需要
# 1. 配置下环境变量
# 2. shell解析器所在目录下设置一个软链接;
3.anaconda
设置环境变量及Shell解析器软链
3.1 全局环境变量起效果
# 编辑环境变量
sudo vim /etc/profile
# 追加PYTHON_HOM
export PYTHON_HOME=/data/tools/anaconda/anaconda3/bin
export PATH=$PYTHON_HOME:$PATH #追加进环境变量
# 然后:wq!保存退出
# 刷新环境变量
source /etc/profile
# 在任意位置,可以得到python解析器版本
[hadoop@node1 ~]$ python -V
Python 3.8.5
接下来配置Shell解析器的软链接;
3.2 Shell脚本中起效果
# 查看你的shell解析器
[hadoop@node1 /]$ cat /etc/shells
/bin/sh
/bin/bash
/usr/bin/sh
/usr/bin/bash
# 基本人的都是这4个,这就是为什么你写shell 脚本一定要 #! /bin/bash或者#!/usr/bin/bash的原因,调用解析器
通常shell脚本运行的时候默认就是来到解析器的目录,所以最好能在解析器目录设置个python的软链,避免不必要的麻烦(博主曾经在调度工具中运行python的shell脚本,被这一点坑的体无完肤);
# 进入根目录
cd /
# 查看下bin相关的文件,你会发现bin其实是usr/bin的软链,即快捷方式,所以只需要在/usr/bin这个目录下设置python的软链,那么所有的shell脚本就能直接使用python了
[hadoop@node1 /]$ ll | grep bin
lrwxrwxrwx. 1 root root 7 Aug 28 2019 bin -> usr/bin
lrwxrwxrwx. 1 root root 8 Aug 28 2019 sbin -> usr/sbin
cd /usr/bin
# 设置python软链
ln -sf /data/tools/anaconda/anaconda3/bin/python3 /usr/bin/python3
ln -sf /data/tools/anaconda/anaconda3/bin/python3 /usr/bin/python
# 这样在shell脚本内直接使用python或者python3来到这台服务器运行都可以直接引用到anaconda下的python解析器
以上就是Linux通过anaconda来安装python的全过程,接下来就是愉快的开启你的Linux下的python遨游之旅;
更多推荐
所有评论(0)