1.anaconda简介

1.1 概念

  anaconda是什么?您的数据科学工具包,使用开源社区构建的最佳Python软件包;也就是说是python工具的基础上自带了很多常用且稳定的python工具包,如图1.1,省去你自己安装各种包的需求,当然也不是所有的包都有,比如目前(20210425)的版本就没有pyspark(python操作spark)的包,问题也不大,和python一样直接利用pip install pyspark即可;缺少的包可以用python内的指令补全;

在这里插入图片描述

图1.1.1 anaconda自带python常用包举例

1.2 官网

  anaconda官网

1.3 下载

  anaconda下载界面
  点击网页的Download,会跳转到如图;目前(20210425)是python3.8,也可以选择old version进行下载;
在这里插入图片描述

图1.3.1 下载界面

1.4 在Linux下和源生态python的使用对比(个人感觉)

  1. 安装较为简单;
  2. 安装好后在你的安装目录$ANACONDA_HOME\bin下有python的解析器,该目录也是python的绝对路径,知道了这个那使用python就和你使用源生态的没啥区别了(该目录下python3python都是python3.8的软链接,即快捷方式!);
(base) [hadoop@node1 bin]$ ls -al | grep python
-rwxrwxr-x  1 hadoop supergroup      259 Apr 20 11:24 ipython
-rwxrwxr-x  1 hadoop supergroup      259 Apr 20 11:24 ipython3
lrwxrwxrwx  1 hadoop supergroup        9 Apr 20 11:24 python -> python3.8
lrwxrwxrwx  1 hadoop supergroup        9 Apr 20 11:24 python3 -> python3.8
-rwxrwxr-x  2 hadoop supergroup 14727600 Sep  4  2020 python3.8
-rwxrwxr-x  1 hadoop supergroup     3537 Apr 20 11:24 python3.8-config
lrwxrwxrwx  1 hadoop supergroup       16 Apr 20 11:24 python3-config -> python3.8-config

2.anaconda安装

2.1 下载

  Linux系统网络顺畅,则直接;否则在官网下载好以后再上传到Linux相应目录下;博主放在了/data/tool/anaconda下;

  注意:此处下载的Anaconda3-2020.11-Linux-x86_64.sh还不是软件本身,只是一个安装启动脚本;类似win下你下载的安装包启动文件;

wget https://repo.anaconda.com/archive/Anaconda3-2020.11-Linux-x86_64.sh

2.1 安装设置

  启动刚刚下载好的脚本,并开始设置安装相关的配置,流程如下;

# 切换到下载好的目录/data/tools/anaconda
cd /data/tools/anaconda

# 运行Anaconda3-2020.11-Linux-x86_64.sh
bash Anaconda3-2020.11-Linux-x86_64.sh

#然后会出现很长的一段交互式询问,这里只拿出关键性的内容来说明下
Welcome to Anaconda3 2020.11

In order to continue the installation process, please review the license
agreement.
Please, press ENTER to continue
>>>
# 上面这里直接按ENTER走你,然后有一大堆的安装说明,别管,一直按着ENTER不放;
# 直到出现以下内容,按多了会出现的多,没关系,因为不输入yes、no会一直询问你
Do you accept the license terms? [yes|no]
[no] >>>
Please answer 'yes' or 'no':'
>>>
Please answer 'yes' or 'no':'
>>>
Please answer 'yes' or 'no':'
>>>
# 上面的询问输入yes,接下来的地方很关键
# 上面的询问输入yes,接下来的地方很关键
# 上面的询问输入yes,接下来的地方很关键
# 上面的询问输入yes,接下来的地方很关键
# 指定你的anaconda3安装位置,你要是不改直接按了ENTER 默认是安装在`/home/你启动脚本的用户/anaconda3`
# 你要想改到其他地方,就先输入你的账户有权限且合法的路径后再按ENTER 键,如我这里选/data/tools/anaconda/anaconda3,
# 该目录不用先建好,建到/data/tools/anaconda这一层就行,建好反而会报错ERROR: File or directory already exists:/usr/local/tools/anaconda3/anaconda3 If you want to update an existing installation, use the -u option.

Anaconda3 will now be installed into this location:
/home/hadoop/anaconda3

  - Press ENTER to confirm the location
  - Press CTRL-C to abort the installation
  - Or specify a different location below

[/home/hadoop/anaconda3] >>> /data/tools/anaconda/anaconda3
# 上面输入/data/tools/anaconda/anaconda3再按回车,表示需要安装在/data/tools/anaconda/anaconda3目录下,
# 然后稍等下,去泡杯咖啡或者找MM聊聊天

Preparing transaction: done
Executing transaction: done
installation finished.
Do you wish the installer to initialize Anaconda3
by running conda init? [yes|no]
[no] >>> yes

# 出现上面的提示时,输入yes,则马上安装完成,并自动退出交互式安装过程

# 进入到安装软件的地方
cd /data/tools/anaconda/anaconda3


# 预览得到以下
[hadoop@node1 anaconda3]$ ls -al
total 224
drwxrwxr-x  27 hadoop supergroup  4096 Apr 25 17:39 .
drwxrwxr-x   3 hadoop supergroup    23 Apr 25 17:38 ..
drwxrwxr-x   2 hadoop supergroup 12288 Apr 25 17:39 bin
drwxrwxr-x   2 hadoop supergroup    30 Apr 25 17:39 compiler_compat
drwxrwxr-x   2 hadoop supergroup    19 Apr 25 17:39 condabin
drwxrwxr-x   2 hadoop supergroup 16384 Apr 25 17:39 conda-meta
drwxrwxr-x   3 hadoop supergroup    20 Apr 25 17:39 doc
drwxrwxr-x   2 hadoop supergroup     6 Apr 25 17:39 envs
drwxrwxr-x   7 hadoop supergroup    77 Apr 25 17:39 etc
drwxrwxr-x  39 hadoop supergroup 12288 Apr 25 17:39 include
drwxrwxr-x   3 hadoop supergroup    25 Apr 25 17:39 info
drwxrwxr-x  23 hadoop supergroup 36864 Apr 25 17:39 lib
drwxrwxr-x   4 hadoop supergroup    97 Apr 25 17:39 libexec
-rw-r--r--   1 hadoop supergroup 11799 Nov 13 05:37 LICENSE.txt
drwxrwxr-x   3 hadoop supergroup    18 Apr 25 17:39 man
drwxrwxr-x  65 hadoop supergroup  4096 Apr 25 17:39 mkspecs
drwxrwxr-x   2 hadoop supergroup   252 Apr 25 17:39 phrasebooks
drwxrwxr-x 682 hadoop supergroup 49152 Apr 25 17:39 pkgs
drwxrwxr-x  27 hadoop supergroup  4096 Apr 25 17:39 plugins
drwxrwxr-x  25 hadoop supergroup  4096 Apr 25 17:39 qml
drwxrwxr-x   2 hadoop supergroup   175 Apr 25 17:39 resources
drwxrwxr-x   2 hadoop supergroup   203 Apr 25 17:39 sbin
drwxrwxr-x  30 hadoop supergroup  4096 Apr 25 17:39 share
drwxrwxr-x   3 hadoop supergroup    22 Apr 25 17:39 shell
drwxrwxr-x   3 hadoop supergroup   146 Apr 25 17:39 ssl
drwxrwxr-x   3 hadoop supergroup 12288 Apr 25 17:39 translations
drwxrwxr-x   3 hadoop supergroup    19 Apr 25 17:39 var
drwxrwxr-x   3 hadoop supergroup    21 Apr 25 17:39 x86_64-conda_cos6-linux-gnu

#进入bin目录下
cd bin

[hadoop@node1 bin]$  ./python -V
Python 3.8.5

# 到此安装就算完成了,要想在任何地方以及Shell脚本上直接python就能引用到此处的python解析器,还需要
# 1. 配置下环境变量
# 2. shell解析器所在目录下设置一个软链接;

3.anaconda设置环境变量及Shell解析器软链

3.1 全局环境变量起效果

# 编辑环境变量
sudo vim /etc/profile

# 追加PYTHON_HOM
export PYTHON_HOME=/data/tools/anaconda/anaconda3/bin

export PATH=$PYTHON_HOME:$PATH #追加进环境变量

# 然后:wq!保存退出

# 刷新环境变量
source /etc/profile


# 在任意位置,可以得到python解析器版本

[hadoop@node1 ~]$ python -V
Python 3.8.5

  接下来配置Shell解析器的软链接;

3.2 Shell脚本中起效果

# 查看你的shell解析器
[hadoop@node1 /]$ cat /etc/shells
/bin/sh
/bin/bash
/usr/bin/sh
/usr/bin/bash

# 基本人的都是这4个,这就是为什么你写shell 脚本一定要 #! /bin/bash或者#!/usr/bin/bash的原因,调用解析器

  通常shell脚本运行的时候默认就是来到解析器的目录,所以最好能在解析器目录设置个python的软链,避免不必要的麻烦(博主曾经在调度工具中运行python的shell脚本,被这一点坑的体无完肤);

# 进入根目录
cd /

# 查看下bin相关的文件,你会发现bin其实是usr/bin的软链,即快捷方式,所以只需要在/usr/bin这个目录下设置python的软链,那么所有的shell脚本就能直接使用python了
[hadoop@node1 /]$ ll | grep bin
lrwxrwxrwx.   1 root   root          7 Aug 28  2019 bin -> usr/bin
lrwxrwxrwx.   1 root   root          8 Aug 28  2019 sbin -> usr/sbin

cd  /usr/bin

# 设置python软链
ln -sf /data/tools/anaconda/anaconda3/bin/python3 /usr/bin/python3 

ln -sf /data/tools/anaconda/anaconda3/bin/python3 /usr/bin/python 

# 这样在shell脚本内直接使用python或者python3来到这台服务器运行都可以直接引用到anaconda下的python解析器

  以上就是Linux通过anaconda来安装python的全过程,接下来就是愉快的开启你的Linux下的python遨游之旅;

Logo

更多推荐