Docker02 狂神Docker视频学习笔记 :【狂神说Java 哔哩哔哩】Docker最新超详细版教程通俗易懂
目录0. 视频源0. 学习网址1. Docker概述1.1 Docker为什么出现?1.2 Docker历史1.3 Docker能干什么2. Docker安装2.1 Docker的基本组成2.2 安装Docker卸载docker(了解)2.3 阿里云镜像加速(让你的Docker更快)2.4 回顾hello-world流程2.5 底层原理3. Docker的常用命令3.1 帮助命令3.2 镜像命令3
目录
《三体》弱小和无知不是生存的障碍,傲慢才是。
授人以渔!学习我的思想 !-- 狂神
即使再小的帆也能远航 。-- 狂神
只要学不死,就往死里学!-- 狂神
0. 视频源
【狂神说Java】Docker最新超详细版教程通俗易懂 https://www.bilibili.com/video/BV1og4y1q7M4/
【狂神说Java】Docker进阶篇超详细版教程通俗易懂 https://www.bilibili.com/video/BV1kv411q7Qc/
0. 学习网址
docker官网:https://www.docker.com/
docker官方文档:https://docs.docker.com/ Docker的文档是超级详细的!
帮助文档:https://docs.docker.com/reference/
DockerHub:https://hub.docker.com/
W3Cschool:https://www.w3cschool.cn/docker/docker-tutorial.html
菜鸟教程:https://www.runoob.com/docker/docker-tutorial.html
使用docker:https://labs.play-with-docker.com/
基础篇
1. Docker概述
1.1 Docker为什么出现?
一款产品: 开发–上线 两套环境!应用环境,应用配置!
传统:开发jar,运维来做!
现在:开发打包部署上线,一套流程做完!
开发即运维!
安卓流程:java — apk —发布(应用商店)一 张三使用apk一安装即可用!
docker流程: java-jar(环境) — 打包项目帯上环境(镜像) — ( Docker仓库:商店)----- 下载我们发布的镜像 – 直接运行即可!
Docker给以上的问题,提出了解决方案!
Docker的思想就来自于集装箱!
隔离:Docker核心思想!打包装箱!每个箱子是互相隔离的。
Docker通过隔离机制,可以将服务器利用到极致!
本质:所有的技术都是因为出现了一些问题,我们需要去解决,才去学习!
1.2 Docker历史
2014年4月9日,Docker1.0发布!
docker为什么这么火?十分的轻巧!
在容器技术出来之前,我们都是使用虚拟机技术!
虚拟机:在window中装一个VMware,通过这个软件我们可以虚拟出来一台或者多台电脑!笨重!
虚拟机也属于虚拟化技术,Docker容器技术,也是一种虚拟化技术!
VMware : linux centos 原生镜像(一个电脑!) 隔离、需要开启多个虚拟机! 几个G 几分钟启动
docker: 隔离,镜像(最核心的环境 4m + jdk + mysql)十分的小巧,运行镜像就可以了!小巧! 几个M 秒级启动!
- 聊聊Docker
Docker基于Go语言开发的!开源项目!
1.3 Docker能干什么
- 传统虚拟机的方式:虚拟机技术
虚拟机技术缺点:
1.资源占用十分多
2.冗余步骤多
3.启动很慢!
- 容器化技术
容器化技术不是模拟一个完整的操作系统
比较Docker和虚拟机技术的不同:
- 传统虚拟机,虚拟出一条硬件,运行一个完整的操作系统,然后在这个系统上安装和运行软件
- 容器内的应用直接运行在宿主机的内容,容器是没有自己的内核的,也没有虚拟我们的硬件,所以就轻便了
- 每个容器间是互相隔离,每个容器内都有一个属于自己的文件系统,互不影响
DevOps(开发、运维)
- 应用更快速的交付和部署
- 传统:一堆帮助文档,安装程序。
- Docker:打包镜像发布测试一键运行。
更便捷的升级和扩缩容
- 使用了 Docker之后,我们部署应用就和搭积木一样
- 项目打包为一个镜像,扩展服务器A!服务器B
更简单的系统运维
在容器化之后,我们的开发,测试环境都是高度一致的
更高效的计算资源利用
Docker是内核级别的虚拟化,可以在一个物理机上可以运行很多的容器实例!服务器的性能可以被压榨到极致。
2. Docker安装
2.1 Docker的基本组成
镜像(image):
docker镜像就好比是一个模板,可以通过这个模板来创建容器服务,tomcat镜像==>run==>容器(提供服务器),通过这个镜像可以创建多个容器(最终服务或者项目就是运行在容器中的)。
容器(container):
Docker利用容器技术,独立运行一个或者一组应用,通过镜像来创建的.
启动,停止,删除,基本命令
目前就可以把这个容器理解为就是一个简易的 Linux系统。
仓库(repository):
仓库就是存放镜像的地方!
仓库分为公有仓库和私有仓库。(很类似git)
Docker Hub是国外的。
阿里云…都有容器服务器(配置镜像加速!)
2.2 安装Docker
环境准备
1.Linux要求内核3.0以上
2.CentOS 7
3.Xshell远程连接服务器进行操作
#系统内核是3.10以上的
[root@iz2zeak7sgj6i7hrb2g862z ~]# uname -r
3.10.0-514.26.2.el7.x86_64
# 系统版本
[root@iz2zeak7sgj6i7hrb2g862z ~]# cat /etc/os-release
NAME="CentOS Linux"
VERSION="7 (Core)"
ID="centos"
ID_LIKE="rhel fedora"
VERSION_ID="7"
PRETTY_NAME="CentOS Linux 7 (Core)"
ANSI_COLOR="0;31"
CPE_NAME="cpe:/o:centos:centos:7"
HOME_URL="https://www.centos.org/"
BUG_REPORT_URL="https://bugs.centos.org/"
CENTOS_MANTISBT_PROJECT="CentOS-7"
CENTOS_MANTISBT_PROJECT_VERSION="7"
REDHAT_SUPPORT_PRODUCT="centos"
REDHAT_SUPPORT_PRODUCT_VERSION="7"
帮助文档:https://docs.docker.com/engine/install/
#1.卸载旧版本
yum remove docker \
docker-client \
docker-client-latest \
docker-common \
docker-latest \
docker-latest-logrotate \
docker-logrotate \
docker-engine
#2.需要的安装包
yum install -y yum-utils
#3.设置镜像的仓库
#默认是从国外的,不推荐
yum-config-manager \
--add-repo \
https://download.docker.com/linux/centos/docker-ce.repo
#推荐使用国内的
yum-config-manager \
--add-repo \
https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# 更新源时,可能遇到的问题如下
-bash: yum-config-manager: command not found
# 因为系统默认没有安装这个命令,这个命令在yum-utils 包里,
# 通过命令yum -y install yum-utils 安装就可以了。
#更新yum软件包索引
yum makecache fast
#4.安装docker相关的 docker-ce 社区版 而ee是企业版
yum install docker-ce docker-ce-cli containerd.io
#5、启动docker
systemctl start docker
#6. 使用docker version查看是否按照成功
docker version
#7. 测试
docker run hello-world
#8.查看一下下载的镜像
docker images
卸载docker(了解)
#1. 卸载依赖
yum remove docker-ce docker-ce-cli containerd.io
#2. 删除资源
rm -rf /var/lib/docker
# /var/lib/docker 是docker的默认工作路径!
2.3 阿里云镜像加速(让你的Docker更快)
1、登录阿里云找到容器服务
2、找到自己的镜像加速器
3、配置使用,放到bash中运行
#1.创建一个目录
sudo mkdir -p /etc/docker
#2.编写配置文件
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://t2wwyxhb.mirror.aliyuncs.com"]
}
EOF
#3.重启服务
sudo systemctl daemon-reload
sudo systemctl restart docker
2.4 回顾hello-world流程
[root@lwh ~]# docker run hello-world
Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world
0e03bdcc26d7: Pull complete
Digest: sha256:4cf9c47f86df71d48364001ede3a4fcd85ae80ce02ebad74156906caff5378bc
Status: Downloaded newer image for hello-world:latest
Hello from Docker!
This message shows that your installation appears to be working correctly.
To generate this message, Docker took the following steps:
1. The Docker client contacted the Docker daemon.
2. The Docker daemon pulled the "hello-world" image from the Docker Hub.
(amd64)
3. The Docker daemon created a new container from that image which runs the
executable that produces the output you are currently reading.
4. The Docker daemon streamed that output to the Docker client, which sent it
to your terminal.
To try something more ambitious, you can run an Ubuntu container with:
$ docker run -it ubuntu bash
Share images, automate workflows, and more with a free Docker ID:
https://hub.docker.com/
For more examples and ideas, visit:
https://docs.docker.com/get-started/
- docker run XXXimages 的运行流程图
2.5 底层原理
Docker是怎么工作的?
Docker是一个Client-Server结构的系统,Docker的守护进程运行在主机上。通过Socket从客户端访问!
Docker-Server接收到Docker-Client的指令,就会执行这个命令!
为什么Docker比虚拟机快?
1、docker有着比虚拟机更少的抽象层。由于docker不需要Hypervisor实现硬件资源虚拟化,运行在docker容器上的程序直接使用的都是实际物理机的硬件资源。因此在CPU、内存利用率上docker将会在效率上有明显优势。
2、docker利用的是宿主机的内核,而不需要Guest OS(比如裸的CentOS等)
GuestOS: VM(虚拟机)里的的系统(OS);
HostOS:物理机里的系统(OS);
因此,当新建一个 容器时,docker不需要和虚拟机一样重新加载一个操作系统内核。
虚拟机:引导、加载操作系统内核是个比较费时费资源的过程,当启动虚拟机时,这个过程是分钟级别的。
docker:docker直接利用宿主机的操作系统,省略了这个复杂的过程,因此启动一个docker容器是秒级的。
3. Docker的常用命令
帮助文档:https://docs.docker.com/reference/
3.1 帮助命令
docker version #显示docker的版本信息。
docker info #显示docker的系统信息,包括镜像和容器的数量
docker 命令 --help #帮助命令
3.2 镜像命令
docker images #查看所有本地主机上的镜像 可以使用docker image ls代替
docker search #搜索镜像
docker pull #下载镜像 docker image pull
docker rmi #删除镜像 docker image rm
- docker images 查看本地主机上的所有镜像
[root@lwh ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
hello-world latest bf756fb1ae65 9 months ago 13.3kB
# 解释
#REPOSITORY # 镜像的仓库源
#TAG # 镜像的标签
#IMAGE ID # 镜像的id
#CREATED # 镜像的创建时间
#SIZE # 镜像的大小
# 可选项 docker images --help
Options:
-a, --all Show all images (default hides intermediate images) #列出所有镜像
-q, --quiet Only show numeric IDs # 只显示镜像的id
[root@lwh ~]# docker images -aq
bf756fb1ae65
- docker search 搜索镜像
[root@lwh ~]# docker search mysql
NAME DESCRIPTION STARS OFFICIAL AUTOMATED
mysql MySQL is a widely used, open-source relation… 10046 [OK]
mariadb MariaDB is a community-developed fork of MyS… 3680 [OK]
# docker search --help
Options:
-f, --filter filter Filter output based on conditions provided
--format string Pretty-print search using a Go template
--limit int Max number of search results (default 25)
--no-trunc Don't truncate output
# --filter=STARS=3000 #搜索出STARS大于3000的镜像
[root@lwh ~]# docker search mysql --filter=STARS=3000
NAME DESCRIPTION STARS OFFICIAL AUTOMATED
mysql MySQL is a widely used, open-source relation… 10046 [OK]
mariadb MariaDB is a community-developed fork of MyS… 3680 [OK]
[root@lwh ~]#
- docker pull 下载镜像
# 下载镜像 docker pull 镜像名[:tag]
[root@lwh ~]# docker pull mysql
Using default tag: latest #如果不写tag,默认就是latest
latest: Pulling from library/mysql #分层下载: docker image 的核心 联合文件系统
d121f8d1c412: Pull complete
f3cebc0b4691: Pull complete
1862755a0b37: Pull complete
489b44f3dbb4: Pull complete
690874f836db: Pull complete
baa8be383ffb: Pull complete
55356608b4ac: Pull complete
dd35ceccb6eb: Pull complete
429b35712b19: Pull complete
162d8291095c: Pull complete
5e500ef7181b: Pull complete
af7528e958b6: Pull complete
Digest: sha256:e1bfe11693ed2052cb3b4e5fa356c65381129e87e38551c6cd6ec532ebe0e808# 签名 防伪
Status: Downloaded newer image for mysql:latest
docker.io/library/mysql:latest#真实地址
[root@lwh ~]#
docker pull mysql
#等价于
docker pull docker.io/library/mysql:latest
docker pull mysql:5.7
- docker rmi 删除镜像
docker rmi -f 镜像id #删除指定的镜像
docker rmi -f 镜像id 镜像id 镜像id 镜像id... #删除指定的镜像
docker rmi -f $(docker images -aq) #删除全部的镜像
3.3 容器命令
docker run 镜像 # 新建容器并启动
docker ps -a #列出所有运行的容器 docker container list和docker ps相同
docker rm 容器id #删除指定容器
docker start 容器id #启动容器
docker restart 容器id #重启容器
docker stop 容器id #停止当前正在运行的容器
docker kill 容器id #强制停止当前容器
说明:我们有了镜像才可以创建容器,Linux,下载centos镜像来学习
[root@lwh ~]# docker pull centos
[root@lwh ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
centos latest 0d120b6ccaa8 2 months ago 215MB
新建容器并启动
docker run [可选参数] image
docker run [OPTIONS] IMAGE [COMMAND] [ARG...]
#参书说明
--name="Name" #容器名字 tomcat01 tomcat02 用来区分容器
-d #后台方式运行
-it #使用交互方式运行,进入容器查看内容
-p #指定容器的端口 -p 8080(宿主机):8080(容器)
-p ip:主机端口:容器端口
-p 主机端口:容器端口(常用)
-p 容器端口
容器端口
-P(大写) #随机指定端口
# 测试、启动并进入容器
[root@lwh ~]# docker run -ti centos /bin/bash
[root@6e5c3ae8f2b7 /]# ls #查看容器内部的centos,基础版本,很多命令都是不完善的
bin dev etc home lib lib64 lost+found media mnt opt proc root run sbin srv sys tmp usr var
[root@6e5c3ae8f2b7 /]# exit #从容器退回主机
exit
列出所有运行的容器
docker ps 命令 #列出当前正在运行的容器
-a, --all #列出当前正在运行的容器 + 带出历史运行过的容器
-n=?, --last int #列出最近创建的?个容器 ?为1则只列出最近创建的一个容器,为2则列出2个
-q, --quiet #只列出容器的编号
退出容器
exit #容器直接停止并退出
Ctrl + p Ctrl + Q #容器不停止退出
删除容器
docker rm 容器id #删除指定的容器,不能删除正在运行的容器,如果要强制删除 rm -rf
docker rm -f $(docker ps -aq) #删除所有的容器
docker ps -a -q|xargs docker rm #删除所有的容器
启动和停止容器的操作
docker start 容器id #启动容器
docker restart 容器id #重启容器
docker stop 容器id #停止当前正在运行的容器
docker kill 容器id #强制停止当前容器
3.4 常用其他命令
后台启动命令
docker run -d 镜像名
docker ps
[root@lwh ~]# docker run -d centos
dd70432548002e268a28aa5dc47c9e8c4e3e8e9267c39b83e7cdae59f29c9477
[root@lwh ~]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
dd7043254800 centos "/bin/bash" 5 seconds ago Exited (0) 4 seconds ago keen_wright
[root@lwh ~]#
# 问题:docker ps -a 发现centos停止了
# 常见的坑,docker容器使用后台运行,就必须要有要一个前台进程,docker发现没有应用(前台进程),就会自动停止
# nginx容器,容器启动后,发现自己没有提供服务,就会立刻停止,就是没有程序了
查看日志
docker logs --help
Options:
--details Show extra details provided to logs
* -f, --follow Follow log output
--since string Show logs since timestamp (e.g. 2013-01-02T13:23:37) or relative (e.g. 42m for 42 minutes)
* --tail string Number of lines to show from the end of the logs (default "all")
* -t, --timestamps Show timestamps
--until string Show logs before a timestamp (e.g. 2013-01-02T13:23:37) or relative (e.g. 42m for 42 minutes)
#显示日志
-ft #显示全部日志信息(一直更新)
--tail number #设置显示日志的条数(一直更新)
docker logs -ft --tail n 容器id #查看n行日志
docker logs -ft 容器id #显示全部日志
$ docker logs -ft --tail n 容器ID
#对于已经停止运行的容器,没有日志
[root@lwh ~]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
dd7043254800 centos "/bin/bash" 3 hours ago Exited (0) 3 hours ago keen_wright
[root@lwh ~]# docker logs -ft --tail 10 dd7
[root@lwh ~]#
#对于正在运行的容器
#自己编写一段shell脚本,模拟输出日志
[root@lwh ~]# docker run -d centos bash -c "while true;do echo 66666;sleep 1;done"
2bae4a9e600cfec2a918207bad7e81d5a6255706f665fb5e819f3b13405802eb
[root@lwh ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
2bae4a9e600c centos "bash -c 'while true…" 9 seconds ago Up 7 seconds vibrant_moser
[root@lwh ~]# docker logs -ft --tail 10 2ba
2020-10-13T09:00:30.796845876Z 66666
2020-10-13T09:00:31.803375101Z 66666
2020-10-13T09:00:32.807639157Z 66666
2020-10-13T09:00:33.811605283Z 66666
。。。
查看容器中进程信息
docker top 容器id
[root@lwh ~]# docker top 2ba
UID PID PPID C STIME TTY TIME CMD
root 7067 7050 0 17:00 ? 00:00:00 bash -c while true;do echo 66666;sleep 1;done
root 7620 7067 0 17:07 ? 00:00:00 /usr/bin/coreutils --coreutils-prog-shebang=sleep /usr/bin/sleep 1
[root@lwh ~]# ^
查看镜像的元数据
# 命令
docker inspect 容器id
#测试
[root@lwh ~]# docker inspect 2ba
[
{
"Id": "2bae4a9e600cfec2a918207bad7e81d5a6255706f665fb5e819f3b13405802eb",
"Created": "2020-10-13T09:00:17.855179454Z",
"Path": "bash",
"Args": [
"-c",
"while true;do echo 66666;sleep 1;done"
],
"State": {
"Status": "running",
"Running": true,
"Paused": false,
"Restarting": false,
"OOMKilled": false,
"Dead": false,
"Pid": 7067,
"ExitCode": 0,
"Error": "",
"StartedAt": "2020-10-13T09:00:18.730844657Z",
"FinishedAt": "0001-01-01T00:00:00Z"
},
"Image": "sha256:0d120b6ccaa8c5e149176798b3501d4dd1885f961922497cd0abef155c869566",
"ResolvConfPath": "/var/lib/docker/containers/2bae4a9e600cfec2a918207bad7e81d5a6255706f665fb5e819f3b13405802eb/resolv.conf",
"HostnamePath": "/var/lib/docker/containers/2bae4a9e600cfec2a918207bad7e81d5a6255706f665fb5e819f3b13405802eb/hostname",
"HostsPath": "/var/lib/docker/containers/2bae4a9e600cfec2a918207bad7e81d5a6255706f665fb5e819f3b13405802eb/hosts",
"LogPath": "/var/lib/docker/containers/2bae4a9e600cfec2a918207bad7e81d5a6255706f665fb5e819f3b13405802eb/2bae4a9e600cfec2a918207bad7e81d5a6255706f665fb5e819f3b13405802eb-json.log",
"Name": "/vibrant_moser",
"RestartCount": 0,
"Driver": "overlay2",
"Platform": "linux",
"MountLabel": "",
"ProcessLabel": "",
"AppArmorProfile": "",
"ExecIDs": null,
"HostConfig": {
"Binds": null,
"ContainerIDFile": "",
"LogConfig": {
"Type": "json-file",
"Config": {}
},
"NetworkMode": "default",
"PortBindings": {},
"RestartPolicy": {
"Name": "no",
"MaximumRetryCount": 0
},
"AutoRemove": false,
"VolumeDriver": "",
"VolumesFrom": null,
"CapAdd": null,
"CapDrop": null,
"Capabilities": null,
"Dns": [],
"DnsOptions": [],
"DnsSearch": [],
"ExtraHosts": null,
"GroupAdd": null,
"IpcMode": "private",
"Cgroup": "",
"Links": null,
"OomScoreAdj": 0,
"PidMode": "",
"Privileged": false,
"PublishAllPorts": false,
"ReadonlyRootfs": false,
"SecurityOpt": null,
"UTSMode": "",
"UsernsMode": "",
"ShmSize": 67108864,
"Runtime": "runc",
"ConsoleSize": [
0,
0
],
"Isolation": "",
"CpuShares": 0,
"Memory": 0,
"NanoCpus": 0,
"CgroupParent": "",
"BlkioWeight": 0,
"BlkioWeightDevice": [],
"BlkioDeviceReadBps": null,
"BlkioDeviceWriteBps": null,
"BlkioDeviceReadIOps": null,
"BlkioDeviceWriteIOps": null,
"CpuPeriod": 0,
"CpuQuota": 0,
"CpuRealtimePeriod": 0,
"CpuRealtimeRuntime": 0,
"CpusetCpus": "",
"CpusetMems": "",
"Devices": [],
"DeviceCgroupRules": null,
"DeviceRequests": null,
"KernelMemory": 0,
"KernelMemoryTCP": 0,
"MemoryReservation": 0,
"MemorySwap": 0,
"MemorySwappiness": null,
"OomKillDisable": false,
"PidsLimit": null,
"Ulimits": null,
"CpuCount": 0,
"CpuPercent": 0,
"IOMaximumIOps": 0,
"IOMaximumBandwidth": 0,
"MaskedPaths": [
"/proc/asound",
"/proc/acpi",
"/proc/kcore",
"/proc/keys",
"/proc/latency_stats",
"/proc/timer_list",
"/proc/timer_stats",
"/proc/sched_debug",
"/proc/scsi",
"/sys/firmware"
],
"ReadonlyPaths": [
"/proc/bus",
"/proc/fs",
"/proc/irq",
"/proc/sys",
"/proc/sysrq-trigger"
]
},
"GraphDriver": {
"Data": {
"LowerDir": "/var/lib/docker/overlay2/858224a9b373805b3fb7fe7eddddba2f9db66db5c2d69f5e8ae82aaa705042c0-init/diff:/var/lib/docker/overlay2/7c31f1d84a764ae2c7719dde7d94ef5eb18e4b26ee44f2debd71fd2fea31e3c0/diff",
"MergedDir": "/var/lib/docker/overlay2/858224a9b373805b3fb7fe7eddddba2f9db66db5c2d69f5e8ae82aaa705042c0/merged",
"UpperDir": "/var/lib/docker/overlay2/858224a9b373805b3fb7fe7eddddba2f9db66db5c2d69f5e8ae82aaa705042c0/diff",
"WorkDir": "/var/lib/docker/overlay2/858224a9b373805b3fb7fe7eddddba2f9db66db5c2d69f5e8ae82aaa705042c0/work"
},
"Name": "overlay2"
},
"Mounts": [],
"Config": {
"Hostname": "2bae4a9e600c",
"Domainname": "",
"User": "",
"AttachStdin": false,
"AttachStdout": false,
"AttachStderr": false,
"Tty": false,
"OpenStdin": false,
"StdinOnce": false,
"Env": [
"PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
],
"Cmd": [
"bash",
"-c",
"while true;do echo 66666;sleep 1;done"
],
"Image": "centos",
"Volumes": null,
"WorkingDir": "",
"Entrypoint": null,
"OnBuild": null,
"Labels": {
"org.label-schema.build-date": "20200809",
"org.label-schema.license": "GPLv2",
"org.label-schema.name": "CentOS Base Image",
"org.label-schema.schema-version": "1.0",
"org.label-schema.vendor": "CentOS"
}
},
"NetworkSettings": {
"Bridge": "",
"SandboxID": "b8cc54aedd5c1dad13bb31213fb334a453a8977fd442710c37c7c05a21d56a02",
"HairpinMode": false,
"LinkLocalIPv6Address": "",
"LinkLocalIPv6PrefixLen": 0,
"Ports": {},
"SandboxKey": "/var/run/docker/netns/b8cc54aedd5c",
"SecondaryIPAddresses": null,
"SecondaryIPv6Addresses": null,
"EndpointID": "5b770cc653c410b2f41d06e87501d651164f07a539eb2fe0b49af118d312663f",
"Gateway": "172.17.0.1",
"GlobalIPv6Address": "",
"GlobalIPv6PrefixLen": 0,
"IPAddress": "172.17.0.2",
"IPPrefixLen": 16,
"IPv6Gateway": "",
"MacAddress": "02:42:ac:11:00:02",
"Networks": {
"bridge": {
"IPAMConfig": null,
"Links": null,
"Aliases": null,
"NetworkID": "5c3796a9d04b416ea2d901107f0638fca3a7ec825f13a054637d18f01077364d",
"EndpointID": "5b770cc653c410b2f41d06e87501d651164f07a539eb2fe0b49af118d312663f",
"Gateway": "172.17.0.1",
"IPAddress": "172.17.0.2",
"IPPrefixLen": 16,
"IPv6Gateway": "",
"GlobalIPv6Address": "",
"GlobalIPv6PrefixLen": 0,
"MacAddress": "02:42:ac:11:00:02",
"DriverOpts": null
}
}
}
}
]
[root@lwh ~]#
进入当前正在运行的容器
#通常容器都是使用后台方式运行的,需要进入容器,修改一些配置
#方式1:命令
docker exec -it 容器id bashshell
#测试
[root@lwh ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
2bae4a9e600c centos "bash -c 'while true…" 33 minutes ago Up 33 minutes vibrant_moser
[root@lwh ~]# docker exec -it 2ba bash
[root@2bae4a9e600c /]# ls
bin dev etc home lib lib64 lost+found media mnt opt proc root run sbin srv sys tmp usr var
[root@2bae4a9e600c /]# ps -ef
UID PID PPID C STIME TTY TIME CMD
root 1 0 0 09:00 ? 00:00:01 bash -c while true;do echo 66666;sleep 1;done
root 2062 0 0 09:34 pts/0 00:00:00 bash
root 2084 1 0 09:34 ? 00:00:00 /usr/bin/coreutils --coreutils-prog-shebang=sleep /usr/bin/sleep 1
root 2085 2062 0 09:34 pts/0 00:00:00 ps -ef
[root@2bae4a9e600c /]#
# 方式2:命令
docker attach 容器id
#测试
[root@2bae4a9e600c /]# exit
exit
[root@lwh ~]# docker attach 2ba
66666 # 正在执行的代码...
66666
。。。
区别
#docker exec #进入当前容器后开启一个新的终端,可以在里面操作。(常用)
#docker attach # 进入容器正在执行的终端
从容器内拷贝文件到外部主机上
# 主机上的文件到容器,一般用挂载
# 容器内的文件拷贝到主机上,一般用拷贝
docker cp 容器id:容器路径/文件 主机路径
# 这种拷贝方式,是一个手动过程,未来我们使用-v 卷的技术,可以实现,自动同步
# 进入容器内部
[root@lwh docker]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
e88b19fc7988 centos "bash" 3 minutes ago Up 3 minutes silly_wing
[root@lwh docker]# docker attach e88
[root@e88b19fc7988 /]# cd /home/
# 在容器内新建一个文件
[root@e88b19fc7988 home]# touch test.cpp
[root@e88b19fc7988 home]# ls
test.cpp
[root@e88b19fc7988 home]# exit
exit
[root@lwh docker]# docker ps # 虽然容器退出了,但数据还在容器中,我们把容器内的数据拷贝出来
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
# 将容器内文件,拷贝到容器外部主机
[root@lwh docker]# docker cp e88:/home/test.cpp /home/
[root@lwh docker]# ls /home/
lwh test.cpp zhangsan
[root@lwh docker]#
学习方式:将我的所有命令敲一遍,自己记录笔记!
3.5 小结
attach Attach local standard input, output, and error streams to a running container#当前shell下 attach连接指定运行的镜像
attach Attach to a running container #当前shell下 attach连接指定运行的镜像
build Build an image from a Dockerfile # 通过Dockerfile定制镜像
commit Create a new image from a container's changes #提交当前容器为新的镜像
cp Copy files/folders between a container and the local filesystem #拷贝文件
create Create a new container #创建一个新的容器
diff Inspect changes to files or directories on a container's filesystem #查看docker容器的变化
events Get real time events from the server # 从服务获取容器实时时间
exec Run a command in a running container # 在运行中的容器上运行命令
export Export a container's filesystem as a tar archive #导出容器文件系统作为一个tar归档文件[对应import]
history Show the history of an image # 展示一个镜像形成历史
images List images #列出系统当前的镜像
import Import the contents from a tarball to create a filesystem image #从tar包中导入内容创建一个文件系统镜像
info Display system-wide information # 显示全系统信息
inspect Return low-level information on Docker objects #查看容器详细信息
kill Kill one or more running containers # kill指定docker容器
load Load an image from a tar archive or STDIN #从一个tar包或标准输入中加载一个镜像[对应save]
login Log in to a Docker registry #
logout Log out from a Docker registry
logs Fetch the logs of a container
pause Pause all processes within one or more containers
port List port mappings or a specific mapping for the container
ps List containers
pull Pull an image or a repository from a registry
push Push an image or a repository to a registry
rename Rename a container
restart Restart one or more containers
rm Remove one or more containers
rmi Remove one or more images
run Run a command in a new container
save Save one or more images to a tar archive (streamed to STDOUT by default)
search Search the Docker Hub for images
start Start one or more stopped containers
stats Display a live stream of container(s) resource usage statistics
stop Stop one or more running containers
tag Create a tag TARGET_IMAGE that refers to SOURCE_IMAGE
top Display the running processes of a container
unpause Unpause all processes within one or more containers
update Update configuration of one or more containers
version Show the Docker version information
wait Block until one or more containers stop, then print their exit codes
3.6 作业练习
作业一:部署Nginx
#1. 搜索镜像search 建议大家去docker搜索,可以看到帮助文档
[root@lwh docker]# docker search nginx
#2. 拉取下载镜像 pull
[root@lwh docker]# docker pull nginx
#查看是否下载成功镜像
[root@lwh docker]# docker images
#3. 运行容器
# -d 后台运行
# --name 给容器命名
# -p 宿主机端口:容器内部端口
[root@lwh docker]# docker run -d --name nginx01 -p 3344:80 nginx
a3ac18d98182d40bcaf6d134469d50d67c17cbcdbf5cdb43fc9afc6357387dec
[root@lwh docker]#
#4. 查看正在运行的容器
[root@lwh docker]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a3ac18d98182 nginx "/docker-entrypoint.…" 23 seconds ago Up 22 seconds 0.0.0.0:3344->80/tcp nginx01
# 5.发起一个请求,查看一个url的状况
[root@lwh docker]# curl localhost:3344
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
body {
width: 35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>
<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>
<p><em>Thank you for using nginx.</em></p>
</body>
</html>
[root@lwh docker]# #可以看到我们的nginx运行正常
#6. 进入容器
[root@lwh docker]# docker exec -it nginx01 bash
root@a3ac18d98182:/# whereis nginx
nginx: /usr/sbin/nginx /usr/lib/nginx /etc/nginx /usr/share/nginx
root@a3ac18d98182:/# cd /etc/nginx/
root@a3ac18d98182:/etc/nginx# ls
conf.d fastcgi_params koi-utf koi-win mime.types modules nginx.conf scgi_params uwsgi_params win-utf
root@a3ac18d98182:/etc/nginx#
#7. 退出容器
root@aa664b0c8ed9:/etc/nginx# exit
exit
#8. 停止容器
[root@lwh docker]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a3ac18d98182 nginx "/docker-entrypoint.…" 16 minutes ago Up 16 minutes 0.0.0.0:3344->80/tcp nginx01
[root@lwh docker]# docker stop a3a
a3a
[root@lwh docker]#
端口暴露的概念
问题
我们每次改动nginx配置文件,都需要进入容器内部,十分麻烦。
我要是可以在容器外部提供一个映射路径,达到在容器外部修改文件,容器内部就可以自动修改。
-v 数据卷 技术!
作业二:部署Tomcat(未实践)
# 下载 tomcat9.0
# 之前的启动都是后台,停止了容器,容器还是可以查到, docker run -it --rm 镜像名 一般是用来测试,用完就删除
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker run -it --rm tomcat:9.0
# --rm Automatically remove the container when it exits 用完即删
#下载 最新版
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker pull tomcat
#查看下载的镜像
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker images
#以后台方式,暴露端口方式,启动运行
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker run -d -p 8080:8080 --name tomcat01 tomcat
#测试访问有没有问题
curl localhost:8080
#根据容器id进入tomcat容器
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker exec -it 645596565d3f /bin/bash
root@645596565d3f:/usr/local/tomcat#
#查看tomcat容器内部内容:
root@645596565d3f:/usr/local/tomcat# ls -l
total 152
-rw-r--r-- 1 root root 18982 May 5 20:40 BUILDING.txt
-rw-r--r-- 1 root root 5409 May 5 20:40 CONTRIBUTING.md
-rw-r--r-- 1 root root 57092 May 5 20:40 LICENSE
-rw-r--r-- 1 root root 2333 May 5 20:40 NOTICE
-rw-r--r-- 1 root root 3255 May 5 20:40 README.md
-rw-r--r-- 1 root root 6898 May 5 20:40 RELEASE-NOTES
-rw-r--r-- 1 root root 16262 May 5 20:40 RUNNING.txt
drwxr-xr-x 2 root root 4096 May 16 12:05 bin
drwxr-xr-x 1 root root 4096 May 21 11:04 conf
drwxr-xr-x 2 root root 4096 May 16 12:05 lib
drwxrwxrwx 1 root root 4096 May 21 11:04 logs
drwxr-xr-x 2 root root 4096 May 16 12:05 native-jni-lib
drwxrwxrwx 2 root root 4096 May 16 12:05 temp
drwxr-xr-x 2 root root 4096 May 16 12:05 webapps
drwxr-xr-x 7 root root 4096 May 5 20:37 webapps.dist
drwxrwxrwx 2 root root 4096 May 5 20:36 work
root@645596565d3f:/usr/local/tomcat#
#进入webapps目录
root@645596565d3f:/usr/local/tomcat# cd webapps
root@645596565d3f:/usr/local/tomcat/webapps# ls
root@645596565d3f:/usr/local/tomcat/webapps#
# 发现问题:1、linux命令少了。 2.webapps目录为空
# 原因:阿里云镜像的原因,阿里云默认是最小的镜像,所以不必要的都剔除掉
# 保证最小可运行的环境!
# 解决方案:
# 将webapps.dist下的文件都拷贝到webapps下即可
root@645596565d3f:/usr/local/tomcat# ls 找到webapps.dist
BUILDING.txt LICENSE README.md RUNNING.txt conf logs temp webapps.dist
CONTRIBUTING.md NOTICE RELEASE-NOTES bin lib native-jni-lib webapps work
root@645596565d3f:/usr/local/tomcat# cd webapps.dist/ # 进入webapps.dist
root@645596565d3f:/usr/local/tomcat/webapps.dist# ls # 查看内容
ROOT docs examples host-manager manager
root@645596565d3f:/usr/local/tomcat/webapps.dist# cd ..
root@645596565d3f:/usr/local/tomcat# cp -r webapps.dist/* webapps # 拷贝webapps.dist 内容给webapps
root@645596565d3f:/usr/local/tomcat# cd webapps #进入webapps
root@645596565d3f:/usr/local/tomcat/webapps# ls #查看拷贝结果
ROOT docs examples host-manager manager
# 这样docker部署tomcat就可以访问了
问题
我们以后要部署项目,如果每次都要进入容器是不是十分麻烦?要是可以在容器外部提供一个映射路径,比如webapps,我们在外部放置项目,就自动同步内部就好了!
作业三:部署elasticsearch+kibana(未实践)
# es 暴露的端口很多!
# es 十分耗内存
# es 的数据一般需要放置到安全目录!挂载
# --net somenetwork ? 网络配置
# 启动elasticsearch
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker run -d --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:7.6.2
# 测试一下es是否成功启动
➜ ~ curl localhost:9200
{
"name" : "d73ad2f22dd3",
"cluster_name" : "docker-cluster",
"cluster_uuid" : "atFKgANxS8CzgIyCB8PGxA",
"version" : {
"number" : "7.6.2",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "ef48eb35cf30adf4db14086e8aabd07ef6fb113f",
"build_date" : "2020-03-26T06:34:37.794943Z",
"build_snapshot" : false,
"lucene_version" : "8.4.0",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
#测试成功就关掉elasticSearch,防止耗内存
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker stop d834ce2bd306
d834ce2bd306
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker stats # 查看docker容器使用内存情况
#测试成功就关掉elasticSearch,可以添加内存的限制,修改配置文件 -e 环境配置修改
$ docker rm -f d73ad2f22dd3 # stop命令也行
$ docker run -d --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx512m" elasticsearch:7.6.2
$ curl localhost:9200
{
"name" : "b72c9847ec48",
"cluster_name" : "docker-cluster",
"cluster_uuid" : "yNAK0EORSvq3Wtaqe2QqAg",
"version" : {
"number" : "7.6.2",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "ef48eb35cf30adf4db14086e8aabd07ef6fb113f",
"build_date" : "2020-03-26T06:34:37.794943Z",
"build_snapshot" : false,
"lucene_version" : "8.4.0",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
思考:使用kibana连接es (elasticSearch)?思考网络如何才能连接
可视化
- portainer(先用这个)
- Rancher(CI/CD再用)
可视化面板我们平时不会使用,大家测试玩玩即可!
4. Docker镜像讲解
4.1 镜像是什么
镜像是一种轻量级、可执行的独立软件保,用来打包软件运行环境和基于运行环境开发的软件,他包含运行某个软件所需的所有内容,包括代码、运行时库、环境变量和配置文件。
所有应用,直接打包docker镜像,就可以直接跑起来!
如何得到镜像
从远程仓库下载
别人拷贝给你
自己制作一个镜像 DockerFile
4.2 Docker镜像加载原理
UnionFs (联合文件系统)
UnionFs(联合文件系统):Union文件系统(UnionFs)是一种分层、轻量级并且高性能的文件系统,他支持对文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下( unite several directories into a single virtual filesystem)。Union文件系统是 Docker镜像的基础。镜像可以通过分层来进行继承,基于基础镜像(没有父镜像),可以制作各种具体的应用镜像
特性:一次同时加载多个文件系统,但从外面看起来,只能看到一个文件系统,联合加载会把各层文件系统叠加起来,这样最终的文件系统会包含所有底层的文件和目录。
Docker镜像加载原理
docker的镜像实际上由一层一层的文件系统组成,这种层级的文件系统UnionFS。
bootfs(boot file system)主要包含 bootloader和 Kernel, bootloader主要是引导加 kernel, Linux刚启动时会加载bootfs文件系统,在 Docker镜像的最底层是 bootfs。这一层与我们典型的Linux/Unix系统是一样的,包含boot加载器和内核。当boot加载完成之后整个内核就都在内存中了,此时内存的使用权已由 bootfs转交给内核,此时系统也会卸载bootfs。
rootfs(root file system),在 bootfs之上。包含的就是典型 Linux系统中的/dev,/proc,/bin,/etc等标准目录和文件。 rootfs就是各种不同的操作系统发行版,比如 Ubuntu, Centos等等。
平时我们安装进虚拟机的CentOS都是好几个G,为什么Docker这里才200M?
[root@lwh ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
redis latest bd571e6529f3 9 hours ago 104MB
nginx latest f35646e83998 22 hours ago 133MB
centos latest 0d120b6ccaa8 2 months ago 215MB
对于个精简的OS,rootfs可以很小,只需要包合最基本的命令,工具和程序库就可以了,因为底层直接用Host的kernel,自己只需要提供rootfs就可以了。由此可见对于不同的Linux发行版, bootfs基本是一致的, rootfs会有差別,因此不同的发行版可以公用bootfs.
虚拟机是分钟级别启动,容器是秒级启动!
4.3 分层理解
分层的镜像
我们可以去下载一个镜像,注意观察下载的日志输出,可以看到是一层层的在下载
[root@lwh ~]# docker pull redis
Using default tag: latest
latest: Pulling from library/redis
bb79b6b2107f: Already exists
1ed3521a5dcb: Pull complete
5999b99cee8f: Pull complete
f99a38f44786: Pull complete
d6fc863042e2: Pull complete
9bd1af4eae13: Pull complete
Digest: sha256:33ca074e6019b451235735772a9c3e7216f014aae8eb0580d7e94834fe23efb3
Status: Downloaded newer image for redis:latest
docker.io/library/redis:latest
[root@lwh ~]#
思考:为什么Docker镜像要采用这种分层的结构呢?
最大的好处,我觉得莫过于资源共享了!比如有多个镜像都从相同的Base镜像构建而来,那么宿主机只需在磁盘上保留一份base镜像,同时内存中也只需要加载一份base镜像,这样就可以为所有的容器服务了,而且镜像的每一层都可以被共享。
查看镜像分层的方式可以通过docker image inspect 命令
[root@lwh ~]# docker image inspect redis
[
{
"Id": "sha256:bd571e6529f32461648680c82e2540f9db4b3bb92709ae5d19dd347531c98f19",
"RepoTags": [
"redis:latest"
],
"RepoDigests": [
"redis@sha256:33ca074e6019b451235735772a9c3e7216f014aae8eb0580d7e94834fe23efb3"
],
"Parent": "",
"Comment": "",
"Created": "2020-10-13T22:07:24.375626298Z",
"Container": "80733509b3e962b415a5a913b000a74cc6f38cc2b240c4a86a83dd1bab898424",
"ContainerConfig": {
"Hostname": "80733509b3e9",
"Domainname": "",
"User": "",
"AttachStdin": false,
"AttachStdout": false,
"AttachStderr": false,
"ExposedPorts": {
"6379/tcp": {}
},
"Tty": false,
"OpenStdin": false,
"StdinOnce": false,
"Env": [
"PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin",
"GOSU_VERSION=1.12",
"REDIS_VERSION=6.0.8",
"REDIS_DOWNLOAD_URL=http://download.redis.io/releases/redis-6.0.8.tar.gz",
"REDIS_DOWNLOAD_SHA=04fa1fddc39bd1aecb6739dd5dd73858a3515b427acd1e2947a66dadce868d68"
],
"Cmd": [
"/bin/sh",
"-c",
"#(nop) ",
"CMD [\"redis-server\"]"
],
"ArgsEscaped": true,
"Image": "sha256:974dcd648a85b0ef1ae78d66080dd7e7cbcf534c343b805242f1173dab60679a",
"Volumes": {
"/data": {}
},
"WorkingDir": "/data",
"Entrypoint": [
"docker-entrypoint.sh"
],
"OnBuild": null,
"Labels": {}
},
"DockerVersion": "18.09.7",
"Author": "",
"Config": {
"Hostname": "",
"Domainname": "",
"User": "",
"AttachStdin": false,
"AttachStdout": false,
"AttachStderr": false,
"ExposedPorts": {
"6379/tcp": {}
},
"Tty": false,
"OpenStdin": false,
"StdinOnce": false,
"Env": [
"PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin",
"GOSU_VERSION=1.12",
"REDIS_VERSION=6.0.8",
"REDIS_DOWNLOAD_URL=http://download.redis.io/releases/redis-6.0.8.tar.gz",
"REDIS_DOWNLOAD_SHA=04fa1fddc39bd1aecb6739dd5dd73858a3515b427acd1e2947a66dadce868d68"
],
"Cmd": [
"redis-server"
],
"ArgsEscaped": true,
"Image": "sha256:974dcd648a85b0ef1ae78d66080dd7e7cbcf534c343b805242f1173dab60679a",
"Volumes": {
"/data": {}
},
"WorkingDir": "/data",
"Entrypoint": [
"docker-entrypoint.sh"
],
"OnBuild": null,
"Labels": null
},
"Architecture": "amd64",
"Os": "linux",
"Size": 104192177,
"VirtualSize": 104192177,
"GraphDriver": {
"Data": {
"LowerDir": "/var/lib/docker/overlay2/7fcbd765b581332242d261a7cfb03584ba1b2736e49e4575c70164225eb2ce28/diff:/var/lib/docker/overlay2/58984bfe2c27722ed0a6e679451f268a257aab633518571c2ab3988ce6263948/diff:/var/lib/docker/overlay2/f0c75ede37e5f16d5813a185144333c6e9af3c371f0e50a8f19077502055a369/diff:/var/lib/docker/overlay2/d42d66b8771a42f6b7937a7e492588ab241b3d7a7c22ce40e26178fd1638b439/diff:/var/lib/docker/overlay2/8770dd15ee4ba6397c74faa3c0fde29869bf69fbd2e068fe11b222b2f547339a/diff",
"MergedDir": "/var/lib/docker/overlay2/3f20bfb865b072ffd7e1317155f61f5c18d4fb8e2a411b1d504a1861e418e885/merged",
"UpperDir": "/var/lib/docker/overlay2/3f20bfb865b072ffd7e1317155f61f5c18d4fb8e2a411b1d504a1861e418e885/diff",
"WorkDir": "/var/lib/docker/overlay2/3f20bfb865b072ffd7e1317155f61f5c18d4fb8e2a411b1d504a1861e418e885/work"
},
"Name": "overlay2"
},
"RootFS": {
"Type": "layers",
"Layers": [
"sha256:d0fe97fa8b8cefdffcef1d62b65aba51a6c87b6679628a2b50fc6a7a579f764c",
"sha256:832f21763c8e6b070314e619ebb9ba62f815580da6d0eaec8a1b080bd01575f7",
"sha256:223b15010c47044b6bab9611c7a322e8da7660a8268949e18edde9c6e3ea3700",
"sha256:a1a4c1d0c191cee2ac3912696fe57cf9ad84cbfaf3d13f314061bd89fe73cabb",
"sha256:e9acf707b7fe3eef2f7c6bd127b3b34b262889cb670013adfb46883a49a4ac8e",
"sha256:b854b24feeee6cbd8fc5d6401f5f1b4a3d40c483444e6c4b06a2b7b31f347b40"
]
},
"Metadata": {
"LastTagTime": "0001-01-01T00:00:00Z"
}
}
]
[root@lwh ~]#
理解:
所有的 Docker镜像都起始于一个基础镜像层,当进行修改或增加新的内容时,就会在当前镜像层之上,创建新的镜像层。
举一个简单的例子,假如基于 Ubuntu Linux16.04创建一个新的镜像,这就是新镜像的第一层;
如果在该镜像中添加 Python包,就会在基础镜像层之上创建第二个镜像层;
如果继续添加一个安全补丁,就会创健第三个镜像层;
该镜像当前已经包含3个镜像层,如下图所示(这只是一个用于演示的很简单的例子)。
在添加额外的镜像层的同时,镜像始终保持是当前所有镜像的组合,理解这一点非常重要。下图中举了一个简单的例子,每个镜像层包含3个文件,而镜像包含了来自两个镜像层的6个文件。
上图中的镜像层跟之前图中的略有区別,主要目的是便于展示文件
下图中展示了一个稍微复杂的三层镜像,在外部看来整个镜像只有6个文件,这是因为最上层中的文件7是文件5的一个更新版。
文中情況下,上层镜像层中的文件覆盖了底层镜像层中的文件。这样就使得文件的更新版本作为一个新镜像层添加到镜像当中
Docker通过存储引擎(新版本采用快照机制)的方式来实现镜像层堆栈,并保证多镜像层对外展示为统一的文件系统
Linux上可用的存储引擎有AUFS、 Overlay2、 Device Mapper、Btrfs以及ZFS。顾名思义,每种存储引擎都基于 Linux中对应的文件系统或者块设备技术,并且每种存储引擎都有其独有的性能特点。
Docker在 Windows上仅支持 windowsfilter 一种存储引擎,该引擎基于NTFS文件系统之上实现了分层和CoW [1]。
下图展示了与系统显示相同的三层镜像。所有镜像层堆并合并,对外提供统一的视图。
特点
Docker 镜像都是只读的,当容器启动时,一个新的可写层加载到镜像的顶部!
这一层就是我们通常说的容器层,容器之下的都叫镜像层!
commit镜像
如果你想要保存当前容器的状态,就可以通过commit来提交,获得一个镜像,就好比我们我们使用虚拟机的快照。
docker commit 提交容器成为一个新的副本
# 命令和git原理类似
docker commit -m="描述信息" -a="作者" 容器id 目标镜像名:[版本TAG]
实战测试
# 1、启动一个默认的tomcat
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker run -d -p 8080:8080 tomcat
de57d0ace5716d27d0e3a7341503d07ed4695ffc266aef78e0a855b270c4064e
# 2、发现这个默认的tomcat 是没有webapps应用,官方的镜像默认webapps下面是没有文件的!
#docker exec -it 容器id /bin/bash
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker exec -it de57d0ace571 /bin/bash
root@de57d0ace571:/usr/local/tomcat#
# 3、从webapps.dist拷贝文件进去webapp
root@de57d0ace571:/usr/local/tomcat# cp -r webapps.dist/* webapps
root@de57d0ace571:/usr/local/tomcat# cd webapps
root@de57d0ace571:/usr/local/tomcat/webapps# ls
ROOT docs examples host-manager manager
# 4、将操作过的容器通过commit调教为一个镜像!我们以后就使用我们修改过的镜像即可,而不需要每次都重新拷贝webapps.dist下的文件到webapps了,这就是我们自己的一个修改的镜像。
docker commit -m="描述信息" -a="作者" 容器id 目标镜像名:[TAG]
docker commit -a="kuangshen" -m="add webapps app" 容器id tomcat02:1.0
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker commit -a="csp提交的" -m="add webapps app" de57d0ace571 tomcat02.1.0
sha256:d5f28a0bb0d0b6522fdcb56f100d11298377b2b7c51b9a9e621379b01cf1487e
[root@iz2zeak7sgj6i7hrb2g862z ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
tomcat02.1.0 latest d5f28a0bb0d0 14 seconds ago 652MB
进阶篇
5. 容器数据卷
5.1 什么是容器数据卷
docker的理念回顾
将应用和环境打包成一个镜像!
数据?如果数据都在容器中,那么我们容器删除,数据就会丢失!需求:数据可以持久化
MySQL,容器删除了,删库跑路!需求:MySQL数据可以存储在本地!
容器之间可以有一个数据共享的技术!Docker容器中产生的数据,同步到本地!
这就是卷技术!目录的挂载,将我们容器内的目录,挂载到Linux上面!
总结一句话:容器的持久化和同步操作!容器间也是可以数据共享的!
5.2 使用容器数据卷
方式一 :直接使用命令挂载 -v
-v, --volume list Bind mount a volume
docker run -it -v 主机目录:容器目录 -p 主机端口:容器端口
$docker run -it -v /home/ceshi/:/home/ centos /bin/bash
#通过 docker inspect 容器id 查看
测试文件的同步
再来测试!
1、停止容器
2、宿主机修改文件
3、启动容器
4、容器内的数据依旧是同步的
好处:我们以后修改只需要在本地修改即可,容器内会自动同步!
5.3 实战:安装MySQL
思考:MySQL的数据持久化的问题
# 获取mysql镜像
➜ ~ docker pull mysql:5.7
# 运行容器,需要做数据挂载 #安装启动mysql,需要配置密码的,这是要注意点!
# 参考官网hub
docker run --name some-mysql -e MYSQL_ROOT_PASSWORD=my-secret-pw -d mysql:tag
#启动我们得
-d 后台运行
-p 端口映射
-v 卷挂载
-e 环境配置
-- name 容器名字
$docker run -d -p 3306:3306 -v /home/mysql/conf:/etc/mysql/conf.d -v /home/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 --name mysql01 mysql:5.7
# 启动成功之后,我们在本地使用sqlyog来测试一下mysql
# sqlyog-连接到服务器的3306--和容器内的3306映射
# 在本地测试创建一个数据库,查看一下我们映射的路径下是否有对应的数据库文件
假设我们将容器删除 ,会发现,我们挂载到本地的数据卷依旧没有丢失,这就实现了容器数据持久化功能。
5.4 具名和匿名挂载
# 匿名挂载
# -v 容器内路径!
docker run -d -P --name nginx01 -v /etc/nginx nginx
# 查看所有的volume的情况
$docker volume ls
DRIVER VOLUME NAME
local 33ae588fae6d34f511a769948f0d3d123c9d45c442ac7728cb85599c2657e50d
# 这种就是匿名挂载,我们在 -v只写了容器内的路径,没有写容器外的路径!
# 具名挂载
# -v 卷名:容器内路径
$docker run -d -P --name nginx02 -v juming-nginx:/etc/nginx nginx
$docker volume ls
DRIVER VOLUME NAME
local juming-nginx
# 查看一下这个卷
所有的docker容器内的卷,没有指定目录的情况下都是在/var/lib/docker/volumes/xxxx/_data下
如果指定了目录,docker volume ls 是查看不到的。
# 三种挂载: 匿名挂载、具名挂载、指定路径挂载
-v 容器内路径 #匿名挂载
-v 卷名:容器内路径 #具名挂载
-v /宿主机路径:容器内路径 #指定路径挂载 docker volume ls 是查看不到的
拓展
# 通过 -v 容器内路径: ro rw 改变读写权限
ro #readonly 只读
rw #readwrite 可读可写
docker run -d -P --name nginx05 -v juming:/etc/nginx:ro nginx
docker run -d -P --name nginx05 -v juming:/etc/nginx:rw nginx
# ro 只要看到ro就说明这个路径只能通过宿主机来操作,容器内部是无法操作!
5.5 初识Dockerfile
Dockerfile 就是用来构建docker镜像的构建文件!命令脚本!先体验一下!
通过这个脚本可以生成镜像,镜像是一层一层的,脚本是一个一个的命令,每个命令是一层。
Dockerfile
# 创建一个dockerfile文件,名字可以随意 建议Dockerfile
# 文件中的内容 指令(大写) 参数
FROM centos
# 匿名挂载
VOLUME ["volume01","volume02"]
CMD echo "----end----"
CMD /bin/bash
#这里的每个命令,就是镜像的一层!
根据Dockerfile生成镜像
[root@lwh docker-test-volume]# docker build -f /root/docker/docker-test-
[root@lwh docker-test-volume]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
centos V1.0 fc01da633397 10 seconds ago 215MB
[root@lwh docker-test-volume]#
启动自己刚刚生成的镜像
[root@lwh docker-test-volume]# docker run -ti centos:V1.0 /bin/bash
[root@982dfc75081e /]# ls
[root@982dfc75081e /]# ls -l
total 0
。。。
drwxr-xr-x. 2 root root 6 Oct 14 12:45 volume01# 这两个目录就是我们启动镜像的时候自动挂载的:数据卷目录
drwxr-xr-x. 2 root root 6 Oct 14 12:45 volume02
[root@982dfc75081e /]#
这个卷和外部一定有一个同步的目录
# 查看卷挂载
[root@lwh ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
982dfc75081e centos:V1.0 "/bin/bash" 11 minutes ago Up 11 minutes wonderful_elbakyan
# docker inspect 容器id
[root@lwh ~]# docker inspect 982
"Mounts": [
{
"Type": "volume",
"Name": "6c0400bb93f52790a3a71c300752677c592d021e01e5547e50e4abf0ec32bd94",
"Source": "/var/lib/docker/volumes/6c0400bb93f52790a3a71c300752677c592d021e01e5547e50e4abf0ec32bd94/_data",# 对应的宿主机目录
"Destination": "volume02",
"Driver": "local",
"Mode": "",
"RW": true,
"Propagation": ""
},
{
"Type": "volume",
"Name": "72df1567272522a24484ad464e215d426a6532f8568e826865d9e1668d2e7419",
"Source": "/var/lib/docker/volumes/72df1567272522a24484ad464e215d426a6532f8568e826865d9e1668d2e7419/_data", # 对应的宿主机目录
"Destination": "volume01",
"Driver": "local",
"Mode": "",
"RW": true,
"Propagation": ""
}
],
[root@lwh ~]#
测试一下刚才的文件是否同步出去了!
这种方式使用的十分多,因为我们通常会构建自己的镜像!
假设构建镜像时候没有挂载卷,要手动镜像挂载 -v 卷名:容器内路径!
5.6 数据卷容器
容器之间进行数据同步,比如:多个MySQL同步数据!
命名的容器挂载数据卷!
[root@lwh ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
centos V1.0 fc01da633397 56 minutes ago 215MB
#启动容器docker01
[root@lwh ~]# docker run -ti --name docker01 centos:V1.0
[root@9cd08de4d6e8 /]# ls
bin dev etc home lib lib64 lost+found media mnt opt proc root run sbin srv sys tmp usr var volume01 volume02
[root@9cd08de4d6e8 /]#
#启动容器docker02 --volumes-from docker01
[root@lwh ~]# docker run -ti --name docker02 --volumes-from docker01 centos:V1.0
[root@8f650a83c5b9 /]# ls
bin dev etc home lib lib64 lost+found media mnt opt proc root run sbin srv sys tmp usr var volume01 volume02
[root@8f650a83c5b9 /]#
# 在另一个终端,进入docker01,在volume01文件夹下新建一个文件
[root@lwh ~]# docker attach docker01
[root@9cd08de4d6e8 /]# cd volume01
[root@9cd08de4d6e8 volume01]# touch docker01Create
[root@9cd08de4d6e8 volume01]# ls
docker01Create
# 在docker02容器内的volume01文件夹下可以看到刚刚新建的文件
#docker01内创建的数据,同步到了docker02上面
[root@8f650a83c5b9 /]# cd volume01
[root@8f650a83c5b9 volume01]# ls
docker01Create
[root@8f650a83c5b9 volume01]#
#启动容器docker03
[root@lwh ~]# docker run -ti --name docker03 --volumes-from docker01 centos:V1.0
[root@3130750fdc44 /]# ls
bin dev etc home lib lib64 lost+found media mnt opt proc root run sbin srv sys tmp usr var volume01 volume02
[root@3130750fdc44 /]# cd volume01
[root@3130750fdc44 volume01]# ls
docker01Create
[root@3130750fdc44 volume01]#
总结:只要通过–volumes-from我们就能实现容器间的数据共享
测试:停止并删除容器docker01,通过容器docker02和容器docker03是否可以访问这个文件
答案:依旧可以访问
多个mysql / redis实现数据共享
$docker run -d -p 3306:3306 -v /home/mysql/conf:/etc/mysql/conf.d -v /home/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 --name mysql01 mysql:5.7
$ocker run -d -p 3307:3306 -e MYSQL_ROOT_PASSWORD=123456 --name mysql02 --volumes-from mysql01 mysql:5.7
# 这个时候,可以实现两个容器数据同步!
结论:
使用场景举例:容器之间的配置信息的传递,
数据卷容器的生命周期:一直持续到没有容器使用为止。
但是一旦你持久化到了本地,这个时候,本地的数据是不会删除的!
6. Dockerfile
6.1 Dockerfile介绍
dockerfile是用来构建docker镜像的文件!命令参数脚本!
构建步骤:
1、 编写一个dockerfile文件
2、 docker build 构建称为一个镜像
3、 docker run运行镜像
4、 docker push发布镜像(DockerHub 、阿里云仓库)
点击后跳到一个Dockerfile
可以看到官方的Dockerfile
但是很多官方镜像都是基础包,很多功能没有,我们通常会自己搭建自己的镜像!
官方既然可以制作镜像,那我们也可以!
6.2 Dockerfile构建过程
基础知识:
1、每个保留关键字(指令)都是必须是大写字母
2、执行从上到下顺序
3、#表示注释
4、每一个指令都会创建提交一个新的镜像层,并提交!
Dockerfile是面向开发的,我们以后要发布项目,做镜像,就需要编写dockerfile文件,这个文件十分简单!
Docker镜像逐渐成企业交付的标准,必须要掌握!
步骤:开发,部署,运维。。。缺一不可
DockerFile:构建文件,定义了一切的步骤,源代码
DockerImages:通过DockerFile构建生成的镜像,最终发布和运行产品。
Docker容器:容器就是镜像运行起来提供服务。
6.3 Dockerfile的指令
# DockerFile常用指令
FROM # 基础镜像,一切从这里开始构建
MAINTAINER # 镜像是谁写的, 姓名+邮箱
RUN # 镜像构建的时候需要运行的命令
ADD # 步骤,tomcat镜像,这个tomcat压缩包!添加内容 添加同目录
WORKDIR # 镜像的工作目录
VOLUME # 挂载的目录
EXPOSE # 保留端口配置
CMD # 指定这个容器启动的时候要运行的命令,只有最后一个会生效,可被替代。
ENTRYPOINT # 指定这个容器启动的时候要运行的命令,可以追加命令
ONBUILD # 当构建一个被继承 DockerFile 这个时候就会运行ONBUILD的指令,触发指令。
COPY # 类似ADD,将我们文件拷贝到镜像中
ENV # 构建的时候设置环境变量!
6.4 实战测试
创建一个自己的centos
1.编写Dockerfile文件
vim Dockerfile
/root/docker/Dockerfil
FROM centos
MAINTAINER liang<123456789@qq.com>
ENV MYPATH /root/docker/
WORKDIR $MYPATH
RUN yum -y install vim
RUN yum -y install net-tools
EXPOSE 80
CMD echo $MYPATH
CMD echo "------end------"
CMD /bin/bash
2.通过这个文件构建镜像
# -f 指定Dockerfile文件
# -t 指定生成的镜像名(target)
# . 当前目录下
# 命令 docker build -f 文件路径 -t 镜像名:[tag] .
[root@lwh docker]# docker build -f Dockerfile -t mycentos:v0.1 .
运行
[root@lwh docker]# docker run -ti mycentos:v0.1
[root@3981851b1eb5 docker]# pwd
/root/docker
[root@3981851b1eb5 docker]# ifconfig
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 172.17.0.2 netmask 255.255.0.0 broadcast 172.17.255.255
ether 02:42:ac:11:00:02 txqueuelen 0 (Ethernet)
RX packets 8 bytes 656 (656.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
loop txqueuelen 1000 (Local Loopback)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
[root@3981851b1eb5 docker]#
我们可以列出本地镜像的变更历史
所以,我们平时拿到一个镜像,可以研究一下这个镜像是什么做的
[root@lwh docker]# docker history mycentos:v0.1
IMAGE CREATED CREATED BY SIZE COMMENT
7f2d6f2945ae 5 minutes ago /bin/sh -c #(nop) CMD ["/bin/sh" "-c" "/bin… 0B
89ef6ab6a251 5 minutes ago /bin/sh -c #(nop) CMD ["/bin/sh" "-c" "echo… 0B
127f203b737b 5 minutes ago /bin/sh -c #(nop) CMD ["/bin/sh" "-c" "echo… 0B
695e2b52de28 5 minutes ago /bin/sh -c #(nop) EXPOSE 80 0B
c1e3950a1b3b 5 minutes ago /bin/sh -c yum -y install net-tools 22.8MB
f9e5f9e54368 5 minutes ago /bin/sh -c yum -y install vim 57.3MB
cb34bd2be78f 6 minutes ago /bin/sh -c #(nop) WORKDIR /root/docker/ 0B
f3943454ccb6 6 minutes ago /bin/sh -c #(nop) ENV MYPATH=/root/docker/ 0B
5d889573ab13 6 minutes ago /bin/sh -c #(nop) MAINTAINER liang<12345678… 0B
0d120b6ccaa8 2 months ago /bin/sh -c #(nop) CMD ["/bin/bash"] 0B
<missing> 2 months ago /bin/sh -c #(nop) LABEL org.label-schema.sc… 0B
<missing> 2 months ago /bin/sh -c #(nop) ADD file:538afc0c5c964ce0d… 215MB
[root@lwh docker]#
6.5 CMD 和 ENTRYPOINT区别
CMD # 指定这个容器启动的时候要运行的命令,只有最后一个会生效,可被替代。
ENTRYPOINT # 指定这个容器启动的时候要运行的命令,可以追加命令
- 测试CMD
# 编写dockerfile文件
$vim dockerfile-test-cmd
FROM centos
CMD ["ls","-a"]
# 构建镜像
$docker build -f dockerfile-test-cmd -t cmd-test:0.1 .
# 运行镜像
$docker run cmd-test:0.1
。。。
.dockerenv
bin
dev
。。。
# 运行镜像:想追加一个命令 -l 期望成为ls -al
$docker run cmd-test:0.1 -l
docker: Error response from daemon: OCI runtime create failed: container_linux.go:349: starting container process caused "exec: \"-l\":
executable file not found in $PATH": unknown.
ERRO[0000] error waiting for container: context canceled
# cmd的情况下 -l 替换了"ls","-l"。 最终变为cmd ["-l"]
# 应该写为 $docker run cmd-test:0.1 ls -al
总结:运行时传进去的参数把CMD后面的参数全部替换掉了
- 测试ENTRYPOINT
# 编写dockerfile文件
$vim dockerfile-test-entrypoint
FROM centos
ENTRYPOINT ["ls","-a"]
# 构建镜像
$docker build -f dockerfile-test-entrypoint -t entrypoint-test:0.1 .
$docker run entrypoint-test:0.1
。。。
.dockerenv
bin
dev
。。。
# 我们的参数,是直接拼接在ENTRYPOINT命令参数的后面
$ docker run entrypoint-test:0.1 -l
total 56
drwxr-xr-x 1 root root 4096 May 16 06:32 .
drwxr-xr-x 1 root root 4096 May 16 06:32 ..
-rwxr-xr-x 1 root root 0 May 16 06:32 .dockerenv
lrwxrwxrwx 1 root root 7 May 11 2019 bin -> usr/bin
drwxr-xr-x 5 root root 340 May 16 06:32 dev
drwxr-xr-x 1 root root 4096 May 16 06:32 etc
drwxr-xr-x 2 root root 4096 May 11 2019 home
lrwxrwxrwx 1 root root 7 May 11 2019 lib -> usr/lib
lrwxrwxrwx 1 root root 9 May 11 2019 lib64 -> usr/lib64 ....
总结:运行时传进去的参数拼接在ENTRYPOINT的参数的后面
Dockerfile中很多命令都十分的相似,我们需要了解它们的区别,我们最好的学习就是对比他们然后测试效果!
6.6 实战:Tomcat镜像
1、准备压缩包和镜像文件
准备tomcat 和 jdk的压缩包到当前目录,编写好README
2、编写Dockerfile(官方的命名方式,build时默认帮你去寻找,不需要加-f指定)
FROM centos
MAINTAINER liang<123456789@qq.com>
COPY README /usr/local/README #复制文件到容器内
ADD jdk-8u231-linux-x64.tar.gz /usr/local/ #复制压缩包到容器中,自动解压
ADD apache-tomcat-9.0.35.tar.gz /usr/local/#复制压缩包到容器中,自动解压
RUN yum -y install vim
ENV MYPATH /usr/local #设置环境变量
WORKDIR $MYPATH #设置工作目录
ENV JAVA_HOME /usr/local/jdk1.8.0_231 #设置环境变量
ENV CATALINA_HOME /usr/local/apache-tomcat-9.0.35 #设置环境变量
ENV PATH $PATH:$JAVA_HOME/bin:$CATALINA_HOME/lib #设置环境变量 分隔符是:
EXPOSE 8080 #设置暴露的端口
CMD /usr/local/apache-tomcat-9.0.35/bin/startup.sh && tail -F /usr/local/apache-tomcat-9.0.35/logs/catalina.out # 设置默认命令
3、构建镜像
# 因为Dockerfile命名使用默认命名 因此不用使用-f 指定文件
$ docker build -t mytomcat:0.1 .
4、run镜像
$ docker run -d -p 8080:8080 --name tomcat01 -v /home/kuangshen/build/tomcat/test:/usr/local/apache-tomcat-9.0.35/webapps/test -v /home/kuangshen/build/tomcat/tomcatlogs/:/usr/local/apache-tomcat-9.0.35/logs mytomcat:0.1
5、访问测试
6、发布项目(由于做了卷挂载,我们直接在本地编写项目就可以发布了!)
发现:项目部署成功,可以直接访问!
我们以后开发的步骤:需要掌握Dockerfile的编写!我们之后的一切都是使用docker镜像来发布运行!
6.7 发布自己的镜像
- 发布到DockerHub上
1、地址 https://hub.docker.com/
2、确定这个账号可以登录
3、登录本机:docker login -u username
4、提交 push镜像 : docker push username/imageName:tag
# 会发现push不上去,因为如果没有前缀的话默认是push到 官方的library
# 解决方法
# 第一种 build的时候添加你的dockerhub用户名,然后在push就可以放到自己的仓库了
$ docker build -t chengcoder/mytomcat:0.1 .
# 第二种 使用docker tag #然后再次push
$ docker tag 容器id chengcoder/mytomcat:1.0 #然后再次push
- 发布到阿里云镜像服务器上
看官网 很详细https://cr.console.aliyun.com/repository/
1.登录阿里云,找到容器镜像服务
2.容器镜像服务 -> 命名空间创建命名空间
3.容器镜像服务 -> 镜像仓库创建镜像仓库
4.点击刚刚创建的仓库,里面有详细的操作步骤
# 登录
$ sudo docker login --username=zchengx registry.cn-shenzhen.aliyuncs.com
#给镜像生成一个版本号
$ sudo docker tag [ImageId] registry.cn-shenzhen.aliyuncs.com/dsadxzc/cheng:[镜像版本号]
# 修改id 和 版本
sudo docker tag a5ef1f32aaae registry.cn-shenzhen.aliyuncs.com/dsadxzc/cheng:1.0
$ sudo docker push registry.cn-shenzhen.aliyuncs.com/dsadxzc/cheng:[镜像版本号]
6.8 小结
7. Docker网络
7.1 理解docker0
- 清空所有环境
[root@lwh docker]# docker rm -f `docker ps -aq`
[root@lwh docker]# docker rmi -f `docker images -aq`
- 查看本机网络
- lo #本机回环地址
- ens33 #本地内网地址
- docker0 #docker生成的一个网卡(安装docker后,docker生成的本地路由)
# 查看本地ip
# 发现docker网卡ip地址是:172.17.0.1
[root@lwh docker]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:79:c6:bf brd ff:ff:ff:ff:ff:ff
inet 192.168.184.134/24 brd 192.168.184.255 scope global noprefixroute dynamic ens33
valid_lft 1558sec preferred_lft 1558sec
inet6 fe80::70fe:6347:44f1:9f68/64 scope link noprefixroute
valid_lft forever preferred_lft forever
3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default qlen 1000
link/ether 52:54:00:0a:68:11 brd ff:ff:ff:ff:ff:ff
4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN group default qlen 1000
link/ether 52:54:00:0a:68:11 brd ff:ff:ff:ff:ff:ff
5: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default #docker0
link/ether 02:42:c1:fd:f7:b3 brd ff:ff:ff:ff:ff:ff
inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
valid_lft forever preferred_lft forever
inet6 fe80::42:c1ff:fefd:f7b3/64 scope link
valid_lft forever preferred_lft forever
[root@lwh docker]#
- 问题: docker 是如何处理容器网络访问的?
# 1、运行一个tomcat
[root@lwh docker]# docker run -d -P --name=tomcat01 tomcat
# 查看容器内部的网络地址:ip addr
# 2、查看tomcat01容器的ip地址
# 发现容器启动的时候会得到一个 eth0@if27 ip地址,docker分配! 26: eth0@if27
# 发现这个docker容器的ip是172.17.0.2
[root@lwh docker]# docker exec -it tomcat01 ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
26: eth0@if27: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
valid_lft forever preferred_lft forever
# 思考:linux能不能ping通docker容器内部! 可以
[root@lwh docker]# ping 172.17.0.2
PING 172.17.0.2 (172.17.0.2) 56(84) bytes of data.
64 bytes from 172.17.0.2: icmp_seq=1 ttl=64 time=0.158 ms
64 bytes from 172.17.0.2: icmp_seq=2 ttl=64 time=0.073 ms
^C
--- 172.17.0.2 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1000ms
rtt min/avg/max/mdev = 0.073/0.115/0.158/0.043 ms
[root@lwh docker]#
# 思考:docker容器内部可以ping通外界吗? 可以!
192.168.0.1 家庭路由器地址
192.168.0.X 你的手机上网地址,它们在一个网段,肯定能ping通
原理
我们每启动一个docker容器,docker0网卡就会给docker容器分配一个ip,
我们只要安装了docker,就会有一个docker0网卡(使用桥接模式),使用的技术是veth-pair技术!
https://www.cnblogs.com/bakari/p/10613710.html
- (启动 tomcat01容器后)再次查看本机网络
1、发现多了27: veth5e70a32@if26:
[root@lwh docker]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:79:c6:bf brd ff:ff:ff:ff:ff:ff
inet 192.168.184.134/24 brd 192.168.184.255 scope global noprefixroute dynamic ens33
valid_lft 1190sec preferred_lft 1190sec
inet6 fe80::70fe:6347:44f1:9f68/64 scope link noprefixroute
valid_lft forever preferred_lft forever
3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default qlen 1000
link/ether 52:54:00:0a:68:11 brd ff:ff:ff:ff:ff:ff
4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN group default qlen 1000
link/ether 52:54:00:0a:68:11 brd ff:ff:ff:ff:ff:ff
5: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 02:42:c1:fd:f7:b3 brd ff:ff:ff:ff:ff:ff
inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
valid_lft forever preferred_lft forever
inet6 fe80::42:c1ff:fefd:f7b3/64 scope link
valid_lft forever preferred_lft forever
27: veth5e70a32@if26: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default
link/ether 3a:92:92:b8:1a:c1 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet6 fe80::3892:92ff:feb8:1ac1/64 scope link
valid_lft forever preferred_lft forever
[root@lwh docker]#
2 、再启动一个tomcat容器,发现本机又多了一对网络
#启动tomcat02容器
[root@lwh docker]# docker run -d -P --name=tomcat02 tomcat
b652a809636828a1e1d61a06137674e9200f03e9fcb3a48fcbc012b3b2a034ea
#tomcat02容器的ip addr
[root@lwh docker]# docker exec -it tomcat02 ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
28: eth0@if29: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 02:42:ac:11:00:03 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 172.17.0.3/16 brd 172.17.255.255 scope global eth0
valid_lft forever preferred_lft forever
[root@lwh docker]# ^C
# 本机的ip addr
[root@lwh docker]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:79:c6:bf brd ff:ff:ff:ff:ff:ff
inet 192.168.184.134/24 brd 192.168.184.255 scope global noprefixroute dynamic ens33
valid_lft 1376sec preferred_lft 1376sec
inet6 fe80::70fe:6347:44f1:9f68/64 scope link noprefixroute
valid_lft forever preferred_lft forever
3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default qlen 1000
link/ether 52:54:00:0a:68:11 brd ff:ff:ff:ff:ff:ff
4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN group default qlen 1000
link/ether 52:54:00:0a:68:11 brd ff:ff:ff:ff:ff:ff
5: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 02:42:c1:fd:f7:b3 brd ff:ff:ff:ff:ff:ff
inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
valid_lft forever preferred_lft forever
inet6 fe80::42:c1ff:fefd:f7b3/64 scope link
valid_lft forever preferred_lft forever
27: veth5e70a32@if26: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default
link/ether 3a:92:92:b8:1a:c1 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet6 fe80::3892:92ff:feb8:1ac1/64 scope link
valid_lft forever preferred_lft forever
29: vethb75cae1@if28: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default
link/ether 7a:f4:25:cf:f2:ff brd ff:ff:ff:ff:ff:ff link-netnsid 1
inet6 fe80::78f4:25ff:fecf:f2ff/64 scope link
valid_lft forever preferred_lft forever
veth-pair 技术
# 我们发现这个容器带来的网卡,都是一对对的
# veth-pair 就是一对的虚拟设备接口,他们都是成对出现的,一端连着协议,一端彼此相连
# 正因为有这个特性 veth-pair 充当一个桥梁,用来连接各种虚拟网络设备
# OpenStac,Docker容器之间的连接,OVS的连接,都是使用evth-pair技术
3、我们来测试下tomcat01和tomcat02是否可以ping通(可以)
[root@lwh docker]# docker exec -it tomcat02 ping 172.17.0.2
PING 172.17.0.2 (172.17.0.2) 56(84) bytes of data.
64 bytes from 172.17.0.2: icmp_seq=1 ttl=64 time=0.303 ms
64 bytes from 172.17.0.2: icmp_seq=2 ttl=64 time=0.107 ms
64 bytes from 172.17.0.2: icmp_seq=3 ttl=64 time=0.097 ms
^C
--- 172.17.0.2 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 1001ms
rtt min/avg/max/mdev = 0.097/0.169/0.303/0.094 ms
[root@lwh docker]#
绘制一个网络模型(展示当前tomcat01和tomcat02的网络关系)
结论:
容器和容器之间是可以相互ping通的!
tomcat01和tomcat02公用一个路由器:docker0;
所有的容器不指定网络的情况下,都是docker0路由的,docker会给我们的容器分配一个默认的可用ip。
小结:
Docker使用的是Linux的桥接,宿主机是一个Docker容器的网桥:docker0
Docker中所有网络接口都是虚拟的,虚拟的转发效率高(内网传递文件)
只要容器删除,对应的一对网桥就没了!
思考一个场景:我们编写了一个微服务,database url=ip
项目不重启,docker容器数据库ip换了,我们希望可以处理这个问题,可以通过名字来进行访问容器
即:我们想直接通过容器的名字来ping通,因为容器如果重启ip是会变的
7.2 - - link
$docker exec -it tomcat02 ping tomca01 # ping不通
ping: tomca01: Name or service not known
# 怎么解决?启动容器时添加 --link
# 运行一个tomcat03 --link tomcat02
$docker run -d -P --name tomcat03 --link tomcat02 tomcat
5f9331566980a9e92bc54681caaac14e9fc993f14ad13d98534026c08c0a9aef
# 用tomcat03 ping tomcat02 可以ping通
$ docker exec -it tomcat03 ping tomcat02
PING tomcat02 (172.17.0.3) 56(84) bytes of data.
64 bytes from tomcat02 (172.17.0.3): icmp_seq=1 ttl=64 time=0.115 ms
64 bytes from tomcat02 (172.17.0.3): icmp_seq=2 ttl=64 time=0.080 ms
# 但是:用tomcat02 ping tomcat03 ping不通
[root@lwh docker]# docker network --help
[root@lwh docker]# docker network ls
[root@lwh docker]# docker network inspect NETWORK ID
[root@lwh docker]# docker network ls
NETWORK ID NAME DRIVER SCOPE
4759ecc48872 bridge bridge local #docker0
e0029889cb3d host host local
03118d92b9c6 none null local
[root@lwh docker]#
docker network inspect查看docker0
可以看到docker0给tomcat01 tomcat02 tomcat03分别分配了ip
docker inspect 容器ID 查看tomcat02
docker inspect tomcat03(因为我们用tomcat03绑的tomcat02)
查看tomcat03里面的/etc/hosts
发现配置了tomcat02的ip映射
本质探究:- - link 本质就是在hosts配置中添加映射
现在使用Docker已经不建议使用 - - link了!
现在:使用自定义网络,不使用docker0!
docker0存在的问题:不支持通过容器名进行连接访问!
7.3 自定义网络
查看所有的docker网络
[root@lwh docker]# docker network ls
NETWORK ID NAME DRIVER SCOPE
4759ecc48872 bridge bridge local #docker0
e0029889cb3d host host local
03118d92b9c6 none null local
[root@lwh docker]#
网络模式
bridge :桥接 docker(默认,自己创建也使用bridge模式)
host :和宿主机共享网络
none :不配置网络,一般不用
container :容器内网络连通(用得少!局限很大)
测试
# 我们直接启动的话 --net bridge是默认加上的,而这个bridge就是我们的docker0
$docker run -d -P --name tomcat01 tomcat
# 等价于 =>
$docker run -d -P --name tomcat01 --net bridge tomcat
# docker0,特点:默认的,它是域名不能被访问。 --link可以打通连接,但是很麻烦!
# 我们可以 自定义一个网络
# --driver bridge 桥接模式
# --subnet 192.168.0.0/16 子网(此处最多支持255*255=65535个)(192.168.0.2-192.168.255.255)
# --gateway 192.168.0.1 mynet 网关的名字叫mynet
$docker network create --driver bridge --subnet 192.168.0.0/16 --gateway 192.168.0.1 mynet
[root@lwh docker]# docker network create --driver bridge --subnet 192.168.0.0/16 --gateway 192.168.0.1 mynet
fde4f9275021286982e4ff5c52189d651ff9f4f4b95b379972560609b78dfbbe
[root@lwh docker]# docker network ls
NETWORK ID NAME DRIVER SCOPE
4759ecc48872 bridge bridge local
e0029889cb3d host host local
fde4f9275021 mynet bridge local # 新建的
03118d92b9c6 none null local
[root@lwh docker]#
查看新添加的网络:docker network inspect mynet
[root@lwh docker]# docker network inspect mynet
[
{
"Name": "mynet",
"Id": "fde4f9275021286982e4ff5c52189d651ff9f4f4b95b379972560609b78dfbbe",
"Created": "2020-10-16T21:41:16.217547528+08:00",
"Scope": "local",
"Driver": "bridge",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "192.168.0.0/16",
"Gateway": "192.168.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {},
"Options": {},
"Labels": {}
}
]
[root@lwh docker]#
利用mynet启动tomcat01 tomcat02,然后查看mynet
[root@lwh docker]# docker run -d -P --name=tomcat-net-o1 --net=mynet tomcat
e2bde7324c4f9b21e828ce27dbccbaa5e2feba49e58ae10ddd6f3b7a08879b9e
[root@lwh docker]# docker run -d -P --name=tomcat-net-o2 --net=mynet tomcat
7e09294237fff67ed66acf9f1ad3f30faf1e8ed73f84b40bf3662b0d2d335c90
[root@lwh docker]# docker network inspect mynet
[
{
"Name": "mynet",
"Id": "fde4f9275021286982e4ff5c52189d651ff9f4f4b95b379972560609b78dfbbe",
"Created": "2020-10-16T21:41:16.217547528+08:00",
"Scope": "local",
"Driver": "bridge",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "192.168.0.0/16",
"Gateway": "192.168.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {
"7e09294237fff67ed66acf9f1ad3f30faf1e8ed73f84b40bf3662b0d2d335c90": {
"Name": "tomcat-net-o2",
"EndpointID": "57a116b6a22e1204e62c083e61a2ed1a343edf4b022b79b8e5860c742ba4fe03",
"MacAddress": "02:42:c0:a8:00:03",
"IPv4Address": "192.168.0.3/16",
"IPv6Address": ""
},
"e2bde7324c4f9b21e828ce27dbccbaa5e2feba49e58ae10ddd6f3b7a08879b9e": {
"Name": "tomcat-net-o1",
"EndpointID": "f73cffab507e345ad6cdae672dd83101ca1c3b941f3218b46e95f1c0a6583858",
"MacAddress": "02:42:c0:a8:00:02",
"IPv4Address": "192.168.0.2/16",
"IPv6Address": ""
}
},
"Options": {},
"Labels": {}
}
]
[root@lwh docker]#
[root@lwh docker]# docker exec -it tomcat-net-o1 ping tomcat-net-o2
PING tomcat-net-o2 (192.168.0.3) 56(84) bytes of data.
64 bytes from tomcat-net-o2.mynet (192.168.0.3): icmp_seq=1 ttl=64 time=0.203 ms
64 bytes from tomcat-net-o2.mynet (192.168.0.3): icmp_seq=2 ttl=64 time=0.118 ms
^C
--- tomcat-net-o2 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 3ms
rtt min/avg/max/mdev = 0.118/0.160/0.203/0.044 ms
[root@lwh docker]#
[root@lwh docker]# docker exec -it tomcat-net-o2 ping tomcat-net-o1
PING tomcat-net-o1 (192.168.0.2) 56(84) bytes of data.
64 bytes from tomcat-net-o1.mynet (192.168.0.2): icmp_seq=1 ttl=64 time=0.125 ms
64 bytes from tomcat-net-o1.mynet (192.168.0.2): icmp_seq=2 ttl=64 time=0.119 ms
^C
--- tomcat-net-o1 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1ms
rtt min/avg/max/mdev = 0.119/0.122/0.125/0.003 ms
[root@lwh docker]#
在自定义的网络下,服务可以互相ping通,不用使用–link
我们自定义的网络docker都已经帮我们维护好了对应的关系,推荐我们平时这样使用网络!
好处:
redis -不同的集群使用不同的网络,保证集群是安全和健康的
mysql-不同的集群使用不同的网络,保证集群是安全和健康的
7.4 网络连通
测试不同网段(docker的不同网卡)是否能ping通
# 利用mynet启动tomcat-net-01 tomcat-net-02
[root@lwh docker]# docker run -d -P --name=tomcat-net-01 --net=mynet tomcat
911d7c30fc728372609af8b8c7f2aa97ad7ab70c5b0ae958c523dce2ccf4893c
[root@lwh docker]# docker run -d -P --name=tomcat-net-02 --net=mynet tomcat
6e84a9e9369162f7eaf51e1b48f700d3b7f0a8f2ee82a41a0931389695b2bb6a
# 启动tomcat-01 tomcat-02 默认是docker0
[root@lwh docker]# docker run -d -P --name=tomcat-01 tomcat
0c558106c4f776d14086069b80fbd8fd350e5f948e4aab3a3ae2e3cd1cd01ad5
[root@lwh docker]# docker run -d -P --name=tomcat-02 tomcat
c74b56faf70f4dc05efbbf25acc58f55bdc2f6babee1453c901b8e494c5209e2
[root@lwh docker]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
c74b56faf70f tomcat "catalina.sh run" 46 seconds ago Up 44 seconds 0.0.0.0:32776->8080/tcp tomcat-02
0c558106c4f7 tomcat "catalina.sh run" 52 seconds ago Up 50 seconds 0.0.0.0:32775->8080/tcp tomcat-01
6e84a9e93691 tomcat "catalina.sh run" About a minute ago Up About a minute 0.0.0.0:32774->8080/tcp tomcat-net-02
911d7c30fc72 tomcat "catalina.sh run" About a minute ago Up About a minute 0.0.0.0:32773->8080/tcp tomcat-net-01
[root@lwh docker]#
# ping不通
[root@lwh docker]# docker exec -it tomcat-01 ping tomcat-net-01
ping: tomcat-net-01: Name or service not known
[root@lwh docker]#
docker network connect [OPTIONS] network container 命令
[root@lwh docker]# docker network --help
Usage: docker network COMMAND
Manage networks
Commands:
connect Connect a container to a network
create Create a network
disconnect Disconnect a container from a network
inspect Display detailed information on one or more networks
ls List networks
prune Remove all unused networks
rm Remove one or more networks
Run 'docker network COMMAND --help' for more information on a command.
[root@lwh docker]#
[root@lwh docker]# docker network connect --help
Usage: docker network connect [OPTIONS] NETWORK CONTAINER
Connect a container to a network
Options:
--alias strings Add network-scoped alias for the container
--driver-opt strings driver options for the network
--ip string IPv4 address (e.g., 172.30.100.104)
--ip6 string IPv6 address (e.g., 2001:db8::33)
--link list Add link to another container
--link-local-ip strings Add a link-local address for the container
[root@lwh docker]#
要求
# 要将tomcat01 连通 mynet网络下的tomcat—net-01 ,
# 所以连通就是将 tomcat01加到 mynet网络
命令的 测试
[root@lwh docker]# docker network connect mynet tomcat-01
[root@lwh docker]# docker network inspect mynet
[
{
"Name": "mynet",
"Id": "fde4f9275021286982e4ff5c52189d651ff9f4f4b95b379972560609b78dfbbe",
"Created": "2020-10-16T21:41:16.217547528+08:00",
"Scope": "local",
"Driver": "bridge",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "192.168.0.0/16",
"Gateway": "192.168.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {
"0c558106c4f776d14086069b80fbd8fd350e5f948e4aab3a3ae2e3cd1cd01ad5": {
"Name": "tomcat-01", # tomcat-01 拥有了第二个ip
"EndpointID": "551f2a82b4b8bad598012a3f983109b1376f9dbf605e34fc70272de87328740c",
"MacAddress": "02:42:c0:a8:00:04",
"IPv4Address": "192.168.0.4/16",
"IPv6Address": ""
},
"6e84a9e9369162f7eaf51e1b48f700d3b7f0a8f2ee82a41a0931389695b2bb6a": {
"Name": "tomcat-net-02",
"EndpointID": "8210edf0d495c7ba6b5d9564937258685101db3a7830c22e320af5e1ef14c5ce",
"MacAddress": "02:42:c0:a8:00:03",
"IPv4Address": "192.168.0.3/16",
"IPv6Address": ""
},
"911d7c30fc728372609af8b8c7f2aa97ad7ab70c5b0ae958c523dce2ccf4893c": {
"Name": "tomcat-net-01",
"EndpointID": "b61260deb87f008ef162bb7dc0e86deb44ab25d3a3a6720c8e0759d3d534cfb1",
"MacAddress": "02:42:c0:a8:00:02",
"IPv4Address": "192.168.0.2/16",
"IPv6Address": ""
}
},
"Options": {},
"Labels": {}
}
]
[root@lwh docker]#
连通之后就是将tomcat-01放到了mynet网络下
即:一个容器拥有两个ip地址
比如 阿里云 公网ip 私网ip
此时tomcat-01到tomcat-net-01就打通了
[root@lwh docker]# docker exec -it tomcat-01 ping tomcat-net-01
PING tomcat-net-01 (192.168.0.2) 56(84) bytes of data.
64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=1 ttl=64 time=0.297 ms
64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=2 ttl=64 time=0.122 ms
64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=3 ttl=64 time=0.124 ms
^C
--- tomcat-net-01 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 3ms
rtt min/avg/max/mdev = 0.122/0.181/0.297/0.082 ms
[root@lwh docker]#
结论:假设要跨网络操作别人,就需要使用docker network connect 连通!
7.5 实战:部署Redis集群
创建网卡
# 创建网卡
docker network create redis --subnet 172.38.0.0/16
[root@lwh docker]# docker network create redis --subnet 172.38.0.0/16
8b79e9ff18d4531d332452b97c1b5dfd79219cccf8b717a497f8201ccea62e10
通过shell脚本创建六个redis配置
# 通过shell脚本创建六个redis配置
for port in $(seq 1 6);\
do \
mkdir -p /mydata/redis/node-${port}/conf
touch /mydata/redis/node-${port}/conf/redis.conf
cat << EOF >> /mydata/redis/node-${port}/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.38.0.1${port}
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
EOF
done
[root@lwh docker]# vim createRedis.sh
[root@lwh docker]# chmod 775 createRedis.sh
[root@lwh docker]# ls
createRedis.sh Dockerfile
[root@lwh docker]# ./createRedis.sh
[root@lwh docker]# tree /mydata/redis/
/mydata/redis/
├── node-1
│ └── conf
│ └── redis.conf
├── node-2
│ └── conf
│ └── redis.conf
├── node-3
│ └── conf
│ └── redis.conf
├── node-4
│ └── conf
│ └── redis.conf
├── node-5
│ └── conf
│ └── redis.conf
└── node-6
└── conf
└── redis.conf
12 directories, 6 files
[root@lwh docker]# cat /mydata/redis/node-1/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.38.0.11
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
通过shell脚本启动六个redis容器
# 通过shell脚本运行六个redis
for port in $(seq 1 6);\
do\
docker run -p 637${port}:6379 -p 1667${port}:16379 --name redis-${port} \
-v /mydata/redis/node-${port}/data:/data \
-v /mydata/redis/node-${port}/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.1${port} redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf \
# 上面会被当成两条语句 所以还是一个个创建
docker run -p 6371:6379 -p 16671:16379 --name redis-1 \
-v /mydata/redis/node-1/data:/data \
-v /mydata/redis/node-1/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.11 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6372:6379 -p 16672:16379 --name redis-2 \
-v /mydata/redis/node-2/data:/data \
-v /mydata/redis/node-2/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.12 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6373:6379 -p 16673:16379 --name redis-3 \
-v /mydata/redis/node-3/data:/data \
-v /mydata/redis/node-3/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.13 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6374:6379 -p 16674:16379 --name redis-4 \
-v /mydata/redis/node-4/data:/data \
-v /mydata/redis/node-4/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.14 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6375:6379 -p 16675:16379 --name redis-5 \
-v /mydata/redis/node-5/data:/data \
-v /mydata/redis/node-5/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.15 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6376:6379 -p 16676:16379 --name redis-6 \
-v /mydata/redis/node-6/data:/data \
-v /mydata/redis/node-6/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.16 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
[root@lwh docker]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
240790f10fda redis:5.0.9-alpine3.11 "docker-entrypoint.s…" 5 seconds ago Up 4 seconds 0.0.0.0:6376->6379/tcp, 0.0.0.0:16676->16379/tcp redis-6
dc345a543996 redis:5.0.9-alpine3.11 "docker-entrypoint.s…" 13 seconds ago Up 11 seconds 0.0.0.0:6375->6379/tcp, 0.0.0.0:16675->16379/tcp redis-5
5c3a8762cde1 redis:5.0.9-alpine3.11 "docker-entrypoint.s…" 27 seconds ago Up 25 seconds 0.0.0.0:6374->6379/tcp, 0.0.0.0:16674->16379/tcp redis-4
ae22f1944b09 redis:5.0.9-alpine3.11 "docker-entrypoint.s…" 36 seconds ago Up 33 seconds 0.0.0.0:6373->6379/tcp, 0.0.0.0:16673->16379/tcp redis-3
7d55770235f3 redis:5.0.9-alpine3.11 "docker-entrypoint.s…" 44 seconds ago Up 42 seconds 0.0.0.0:6372->6379/tcp, 0.0.0.0:16672->16379/tcp redis-2
b9762e06fc67 redis:5.0.9-alpine3.11 "docker-entrypoint.s…" 2 minutes ago Up 2 minutes 0.0.0.0:6371->6379/tcp, 0.0.0.0:16671->16379/tcp redis-1
配置集群
docker exec -it redis-1 /bin/sh #redis默认没有bash
redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 --cluster-replicas 1
[root@lwh docker]# docker exec -it redis-1 /bin/sh
/data # ls
appendonly.aof nodes.conf
/data #
/data # redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 --cl
uster-replicas 1
>>> Performing hash slots allocation on 6 nodes...
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 172.38.0.15:6379 to 172.38.0.11:6379
Adding replica 172.38.0.16:6379 to 172.38.0.12:6379
Adding replica 172.38.0.14:6379 to 172.38.0.13:6379
M: 20695d373df1b3724581bb5007846bf8be4b124c 172.38.0.11:6379
slots:[0-5460] (5461 slots) master
M: 238dc9cb0d88c037c95b637010b728677dd2989d 172.38.0.12:6379
slots:[5461-10922] (5462 slots) master
M: af5c353fc5dfb6b26e39ebc04d1b572135640dde 172.38.0.13:6379
slots:[10923-16383] (5461 slots) master
S: 08a08328164fd3d132b6dab0bbf27c00cc58f5a0 172.38.0.14:6379
replicates af5c353fc5dfb6b26e39ebc04d1b572135640dde
S: 797632194695a3f679ce07e0026a166912868e02 172.38.0.15:6379
replicates 20695d373df1b3724581bb5007846bf8be4b124c
S: 2d673e1c3569f8d0c7a77832bd8705db799aa5c4 172.38.0.16:6379
replicates 238dc9cb0d88c037c95b637010b728677dd2989d
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join
...
>>> Performing Cluster Check (using node 172.38.0.11:6379)
M: 20695d373df1b3724581bb5007846bf8be4b124c 172.38.0.11:6379
slots:[0-5460] (5461 slots) master
1 additional replica(s)
S: 08a08328164fd3d132b6dab0bbf27c00cc58f5a0 172.38.0.14:6379
slots: (0 slots) slave
replicates af5c353fc5dfb6b26e39ebc04d1b572135640dde
M: af5c353fc5dfb6b26e39ebc04d1b572135640dde 172.38.0.13:6379
slots:[10923-16383] (5461 slots) master
1 additional replica(s)
S: 797632194695a3f679ce07e0026a166912868e02 172.38.0.15:6379
slots: (0 slots) slave
replicates 20695d373df1b3724581bb5007846bf8be4b124c
M: 238dc9cb0d88c037c95b637010b728677dd2989d 172.38.0.12:6379
slots:[5461-10922] (5462 slots) master
1 additional replica(s)
S: 2d673e1c3569f8d0c7a77832bd8705db799aa5c4 172.38.0.16:6379
slots: (0 slots) slave
replicates 238dc9cb0d88c037c95b637010b728677dd2989d
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
/data #
查看集群信息
/data # redis-cli -c
127.0.0.1:6379> cluster info
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:6
cluster_size:3
cluster_current_epoch:6
cluster_my_epoch:1
cluster_stats_messages_ping_sent:387
cluster_stats_messages_pong_sent:400
cluster_stats_messages_sent:787
cluster_stats_messages_ping_received:395
cluster_stats_messages_pong_received:387
cluster_stats_messages_meet_received:5
cluster_stats_messages_received:787
127.0.0.1:6379> cluster nodes
08a08328164fd3d132b6dab0bbf27c00cc58f5a0 172.38.0.14:6379@16379 slave af5c353fc5dfb6b26e39ebc04d1b572135640dde 0 1602865753588 4 connected
20695d373df1b3724581bb5007846bf8be4b124c 172.38.0.11:6379@16379 myself,master - 0 1602865754000 1 connected 0-5460
af5c353fc5dfb6b26e39ebc04d1b572135640dde 172.38.0.13:6379@16379 master - 0 1602865753993 3 connected 10923-16383
797632194695a3f679ce07e0026a166912868e02 172.38.0.15:6379@16379 slave 20695d373df1b3724581bb5007846bf8be4b124c 0 1602865754596 5 connected
238dc9cb0d88c037c95b637010b728677dd2989d 172.38.0.12:6379@16379 master - 0 1602865754000 2 connected 5461-10922
2d673e1c3569f8d0c7a77832bd8705db799aa5c4 172.38.0.16:6379@16379 slave 238dc9cb0d88c037c95b637010b728677dd2989d 0 1602865753000 6 connected
127.0.0.1:6379>
停止一个master 看slaver能不能替补上来
127.0.0.1:6379> set a b
-> Redirected to slot [15495] located at 172.38.0.13:6379
OK
172.38.0.13:6379>
# 根据刚刚的docker ps ,可知 172.38.0.13:6379 对应redis-3
# 新起一个终端进行操作
[root@lwh ~]# docker stop redis-3
redis-3
[root@lwh ~]#
# 在我们刚刚的docker容器中操作
/data # redis-cli -c
127.0.0.1:6379> get a
-> Redirected to slot [15495] located at 172.38.0.14:6379
"b"
172.38.0.14:6379>
/data #
127.0.0.1:6379> cluster nodes
08a08328164fd3d132b6dab0bbf27c00cc58f5a0 172.38.0.14:6379@16379 master - 0 1602866387051 7 connected 10923-16383
20695d373df1b3724581bb5007846bf8be4b124c 172.38.0.11:6379@16379 myself,master - 0 1602866386000 1 connected 0-5460
af5c353fc5dfb6b26e39ebc04d1b572135640dde 172.38.0.13:6379@16379 master,fail - 1602866154347 1602866152631 3 disconnected
797632194695a3f679ce07e0026a166912868e02 172.38.0.15:6379@16379 slave 20695d373df1b3724581bb5007846bf8be4b124c 0 1602866386044 5 connected
238dc9cb0d88c037c95b637010b728677dd2989d 172.38.0.12:6379@16379 master - 0 1602866387553 2 connected 5461-10922
2d673e1c3569f8d0c7a77832bd8705db799aa5c4 172.38.0.16:6379@16379 slave 238dc9cb0d88c037c95b637010b728677dd2989d 0 1602866386000 6 connected
127.0.0.1:6379>
我们使用docker之后,所有的技术都会慢慢变得简单起来!
8. SpringBoot微服务项目打包成Docker镜像
1、构建SpringBoot项目
2、打包运行
3、编写dockerfile
4、构建镜像
5、发布运行
到了这里,我们已经完全够用了!
以后我们使用了Docker之后,给别人交付就是一个镜像即可!
问题:如果有很多镜像???100个镜像怎么维护呢???
- 企业级实战(至少6台阿里云服务器)
- Docker Compose 容器编排
- Docker Swarm 集群部署
- CI/CD之Jenkins
【狂神说Java】Docker进阶篇超详细版教程通俗易懂https://www.bilibili.com/video/BV1kv411q7Qc/
更多推荐
所有评论(0)