命令   

#   含义(上下匹配看)

cd home/hadoop

  #   把/home/hadoop设置为当前目录

cd ..

  #   返回上一级目录

cd -

 #   返回上次路径 

cd ~

 #   进入到当前Linux系统登录用户的主目录(或主文件夹)。

在 Linux 系统中,~代表的是用户的主文件夹,即“/home/用户名”这个目录,如果当前登录用户名为 hadoop,则~就代表“/home/hadoop/”这个目录。

pwd

 #   显示工作路径

tree

 #   显示文件和目录由根目录开始的树形结构

tree用于查看文件的结构,可以查看文件的附属文件,细分文件列表,但是有些情况需要自己下载这个包。

yum install package_name

#   下载并安装一个rpm包

例如:

yum install tree

 同时yum的操作如下:

yum update package_name.rpm
yum update package_name

#   更新当前系统中所有安装的rpm包

#   更新一个rpm包

yum remove package_name

#   删除一个rpm包

yum list

#   列出当前系统中安装的所有包 

ls

 #   查看当前目录中的文件

一般用于查看创建目录是否存在或者查看安装目录。

ls -l

 #   查看文件和目录的权限信息

mkdir input

 #   在当前目录下创建input子目录

该命令创建目录文件,用于存放下载安装地址以及使用。

mkdir -p src/main/scala

 #    在当前目录下,创建多级子目录src/main/scala

递归创建目录,即使上级目录不存在,会按目录层级自动创建目录。

例如 mkdir -p xx/xy

若不存在xx,则会先创建xx目录

cat /proc/version

 #   查看Linux系统内核版本信息

cat /home/hadoop/srk.txt

 #   把/home/hadoop/srk.txt这个文件全部内容显示到屏幕上

cat file1 file2 > file3

 #   把当前目录下的file1和file2两个文件进行合并生成文件file3

head -3 srk.txt

 #   把当前目录下的srk.txt文件中的前3行内容显示到屏幕上

cp /home/hadoop/skr.txt /usr/local/

 #   把/home/hadoop/srk.txt文件复制到“/usr/local”目录下

tar -zxvf ~/spark-2.1.0.tgz -C /usr/srk/

 #   把spark-2.1.0.tgz这个压缩文件解压到/usr/srk目录下

这些都是tar的参数。.tar.gz是一个压缩包,.tar只是打包而没有压缩,注意这点。
z:通过gzip支持压缩或解压,从tar包中把文件提取出来。还有其他的压缩或解压方式,比如j表示bzip2的方式

x:解压、c是压缩。

v:在压缩或解压过程中显示正在处理的文件名,详细信息。(可以省略)

f:f后面必须跟上要处理的文件名 ----- f xxx.tar.gz ,也就是说你不能写成这样 tar -zxfv zhcon-0.2.5.tar.gz(顺序)

C:表示解压后指定后续文件夹

这些都是tar的参数。.tar.gz是一个压缩包,.tar只是打包而没有压缩,注意这点。

mv spark-2.1.0 spark

 #   把spark-2.1.0目录重新命名为spark

rm ./cmj.txt

 #   删除当前目录下的cmj.txt文件

rm –r ./test

 #   删除当前目录下的test目录及其里面的所有文件

rm –r test*

 #   删除当前目录下所有以test开头的目录和文件

chown -R hadoop:hadoop ./spark

 #   hadoop是当前登录Linux系统的用户名,把当前目录下的spark子目录的所有权限,赋予给用户hadoop

ifconfig

  #   查看本机IP地址信息

exit

 #   退出并关闭Linux系统终端

本文文件名没有特殊寓意,这些属于基础命令,如果无特殊使用基本可以用到,有疑问可以交流。

Logo

更多推荐