二十八、docker详解
docker详解
一、docker简介
1. 为什么会有docker出现
假定您在开发一个微服务项目,您使用的是一台笔记本电脑而且您的开发环境具有特定的配置。其他开发人员身处的环境配置也各有不同。您正在开发的应用依赖于您当前的配置且还要依赖于某些配置文件。此外,您的企业还拥有标准化的测试和生产环境,且具有自身的配置和一系列支持文件。您希望尽可能多在本地模拟这些环境而不产生重新创建服务器环境的开销。请问?
您要如何确保应用能够在这些环境中运行和通过质量检测?并且在部署过程中不出现令人头疼的版本、配置问题,也无需重新编写代码和进行故障修复?
答案就是使用容器。Docker之所以发展如此迅速,也是因为它对此给出了一个标准化的解决方案-----系统平滑移植,容器虚拟化技术。
环境配置相当麻烦,换一台机器,就要重来一次,费力费时。很多人想到,能不能从根本上解决问题,软件可以带环境安装?也就是说,安装的时候,把原始环境一模一样地复制过来。开发人员利用 Docker 可以消除协作编码时“在我的机器上可正常工作”的问题。
之前在服务器配置一个应用的运行环境,要安装各种软件,就拿微服务项目的环境来说,Java/RabbitMQ/MySQL/JDBC驱动包等。安装和配置这些东西有多麻烦就不说了,它还不能跨平台。假如我们是在 Windows 上安装的这些环境,到了 Linux 又得重新装。况且就算不跨操作系统,换另一台同样操作系统的服务器,要移植应用也是非常麻烦的。
传统上认为,软件编码开发/测试结束后,所产出的成果即是程序或是能够编译执行的二进制字节码等(java为例)。而为了让这些程序可以顺利执行,开发团队也得准备完整的部署文件,让维运团队得以部署应用程式,开发需要清楚的告诉运维部署团队,用的全部配置文件+所有软件环境。不过,即便如此,仍然常常发生部署失败的状况。Docker的出现使得Docker得以打破过去「程序即应用」的观念。透过镜像(images)将作业系统核心除外,运作应用程式所需要的系统环境,由下而上打包,达到应用程式跨平台间的无缝接轨运作。
2. docker理念
Docker是基于Go语言实现的云开源项目。
Docker的主要目标是“Build,Ship and Run Any App,Anywhere”,也就是通过对应用组件的封装、分发、部署、运行等生命周期的管理,使用户的APP(可以是一个WEB应用或数据库应用等等)及其运行环境能够做到“一次镜像,处处运行”。
Linux容器技术的出现就解决了这样一个问题,而 Docker 就是在它的基础上发展过来的。 将应用打成镜像,通过镜像成为运行在Docker容器上面的实例,而 Docker容器在任何操作系统上都是一致的,这就实现了跨平台、跨服务器。只需要一次配置好环境,换到别的机子上就可以一键部署好,大大简化了操作。
一句话:
解决了运行环境和配置问题的软件容器,方便做持续集成并有助于整体发布的容器虚拟化技术。
3. 容器与虚拟机比较
⑴ 容器发展简史
⑵ 传统虚拟机技术
⑶ 容器虚拟化技术
由于前面虚拟机存在某些缺点,Linux发展出了另一种虚拟化技术:
Linux容器(Linux Containers,缩写为 LXC)
Linux容器是与系统其他部分隔离开的一系列进程,从另一个镜像运行,并由该镜像提供支持进程所需的全部文件。容器提供的镜像包含了应用的所有依赖项,因而在从开发到测试再到生产的整个过程中,它都具有可移植性和一致性。
Linux 容器不是模拟一个完整的操作系统而是对进程进行隔离。有了容器,就可以将软件运行所需的所有资源打包到一个隔离的容器中。容器与虚拟机不同,不需要捆绑一整套操作系统,只需要软件工作所需的库资源和设置。系统因此而变得高效轻量并保证部署在任何环境中的软件都能始终如一地运行。
⑷ docker与传统虚拟机的对比
4. docker能干嘛
⑴ 技术职级变化
⑵ 开发/运维(DevOps)新一代开发工程师
1)一次构建、随处运行
更快速的应用交付和部署
传统的应用开发完成后,需要提供一堆安装程序和配置说明文档,安装部署后需根据配置文档进行繁杂的配置才能正常运行。Docker化之后只需要交付少量容器镜像文件,在正式生产环境加载镜像并运行即可,应用安装配置在镜像里已经内置好,大大节省部署配置和测试验证时间。
2) 更便捷的升级和扩缩容
随着微服务架构和Docker的发展,大量的应用会通过微服务方式架构,应用的开发构建将变成搭乐高积木一样,每个Docker容器将变成一块“积木”,应用的升级将变得非常容易。当现有的容器不足以支撑业务处理时,可通过镜像运行新的容器进行快速扩容,使应用系统的扩容从原先的天级变成分钟级甚至秒级。
3)更简单的系统运维
应用容器化运行后,生产环境运行的应用可与开发、测试环境的应用高度一致,容器会将应用程序相关的环境和状态完全封装起来,不会因为底层基础架构和操作系统的不一致性给应用带来影响,产生新的BUG。当出现程序异常时,也可以通过测试环境的相同容器进行快速定位和修复。
4)更高效的计算资源利用
Docker是内核级虚拟化,其不像传统的虚拟化技术一样需要额外的Hypervisor支持,所以在一台物理机上可以运行很多个容器实例,可大大提升物理服务器的CPU和内存的利用率。
⑶ Docker应用场景
⑷ 哪些企业在使用
- 新浪
- 美团
- 蘑菇街
等等企业都在用 . . . . . . .
5. docker下载地址
官网
docker官网:http://www.docker.com
仓库
Docker Hub官网: https://hub.docker.com/
二、Docker安装
1. Docker安装
⑴ 前提说明
1) CentOS Docker 安装
2)前提条件
目前,CentOS 仅发行版本中的内核支持 Docker。Docker 运行在CentOS 7 (64-bit)上,
要求系统为64位、Linux系统内核版本为 3.8以上,这里选用Centos7.x
3)查看自己的内核
uname命令用于打印当前系统相关信息(内核版本号、硬件架构、主机名称和操作系统类型等)。
⑵ Docker的基本组成
1) 镜像(image)
Docker 镜像(Image)就是一个只读的模板。镜像可以用来创建 Docker 容器,一个镜像可以创建很多容器。
它也相当于是一个root文件系统。比如官方镜像 centos:7 就包含了完整的一套 centos:7 最小系统的 root 文件系统。
相当于容器的“源代码”,docker镜像文件类似于Java的类模板,而docker容器实例类似于java中new出来的实例对象。
2) 容器(container)
① 从面向对象角度
Docker 利用容器(Container)独立运行的一个或一组应用,应用程序或服务运行在容器里面,容器就类似于一个虚拟化的运行环境,容器是用镜像创建的运行实例。 就像是Java中的类和实例对象一样,镜像是静态的定义,容器是镜像运行时的实体。容器为镜像提供了一个标准的和隔离的运行环境,它可以被启动、开始、停止、删除。每个容器都是相互隔离的、保证安全的平台
② 从镜像容器角度
可以把容器看做是一个简易版的 Linux 环境(包括root用户权限、进程空间、用户空间和网络空间等)和运行在其中的应用程序。
3) 仓库(repository)
仓库(Repository)是集中存放镜像文件的场所。
类似于
Maven仓库,存放各种jar包的地方;
github仓库,存放各种git项目的地方;
Docker公司提供的官方registry被称为Docker Hub,存放各种镜像模板的地方。
仓库分为公开仓库(Public)和私有仓库(Private)两种形式。
最大的公开仓库是 Docker Hub(https://hub.docker.com/),
存放了数量庞大的镜像供用户下载。国内的公开仓库包括阿里云 、网易云等
需要正确的理解仓库/镜像/容器这几个概念:
Docker 本身是一个容器运行载体或称之为管理引擎。我们把应用程序和配置依赖打包好形成一个可交付的运行环境,这个打包好的运行环境就是image镜像文件。只有通过这个镜像文件才能生成Docker容器实例(类似Java中new出来一个对象)。
image文件可以看作是容器的模板。Docker 根据 image 文件生成容器的实例。同一个 image 文件,可以生成多个同时运行的容器实例。
① 镜像文件
image 文件生成的容器实例,本身也是一个文件,称为镜像文件。
② 容器实例
一个容器运行一种服务,当我们需要的时候,就可以通过docker客户端创建一个对应的运行实例,也就是我们的容器
③ 仓库
就是放一堆镜像的地方,我们可以把镜像发布到仓库中,需要的时候再从仓库中拉下来就可以了
⑶ Docker工作原理
Docker是一个Client-Server结构的系统,Docker守护进程运行在主机上, 然后通过Socket连接从客户端访问,守护进程从客户端接受命令并管理运行在主机上的容器。 容器,是一个运行时环境,就是我们前面说到的集装箱。可以对比mysql演示对比讲解
⑷ 整体架构及底层通信原理简述
Docker 是一个 C/S 模式的架构,后端是一个松耦合架构,众多模块各司其职。
⑸ CentOS7安装Docker步骤
1) 安装步骤的官网教程地址
https://docs.docker.com/engine/install/centos/
2)具体安装步骤如下:
① 确定你是CentOS7及以上版本
② 卸载旧版本
③ yum安装gcc相关
前提:CentOS7能上外网
[root@host79 ~]# yum -y install gc
[root@host79 ~]# yum -y install gcc-c++
④ 安装需要的软件包
官网要求
执行命令
[root@host79 ~]# yum install -y yum-utils
⑤ 设置stable镜像仓库
[root@host79 ~]# yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
建议别通过外网的地址设置,容易超时
⑥ 更新yum软件包索引
[root@host79 ~]# yum makecache fast
⑦ 安装DOCKER CE
官网要求
[root@host79 ~]# yum -y install docker-ce docker-ce-cli containerd.io
⑧ 启动docker
[root@host79 ~]# systemctl start docker
⑨ 测试
[root@host79 ~]# docker version
[root@host79 ~]# docker run hello-world
2. 卸载
[root@host79 ~]# systemctl stop docker
[root@host79 ~]# yum remove docker-ce docker-ce-cli containerd.io
[root@host79 ~]# rm -rf /var/lib/docker
[root@host79 ~]# rm -rf /var/lib/containerd
3. 阿里云镜像加速
⑴ 阿里云镜像加速是什么
⑵ 获得加速器地址连接
1) 登陆阿里云开发者平台
2) 点击控制台
3) 选择容器镜像服务
4) 获取加速器地址
5) 执行脚本
① 直接粘
[root home]# mkdir -p /etc/docker
[root home]# tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://{自已的编码}.mirror.aliyuncs.com"]
}
EOF
[root home]# systemctl daemon-reload
[root home]# systemctl restart docker
#阿里云
{
“registry-mirrors”: [“https://{自已的编码
}.mirror.aliyuncs.com”]
}
② 或者分步骤都行(麻烦,不推荐)
mkdir -p /etc/docker
vim /etc/docker/daemon.json
6)启动Docker后台容器(测试运行 hello-world)
docker run hello-world
测试可以看出镜像加速器配置成功
7) run干了什么
4. 为什么Docker会比VM虚拟机快
(1) docker有着比虚拟机更少的抽象层
由于docker不需要Hypervisor(虚拟机)实现硬件资源虚拟化,运行在docker容器上的程序直接使用的都是实际物理机的硬件资源。因此在CPU、内存利用率上docker将会在效率上有明显优势。
(2)docker利用的是宿主机的内核,而不需要加载操作系统OS内核
当新建一个容器时,docker不需要和虚拟机一样重新加载一个操作系统内核。进而避免引寻、加载操作系统内核返回等比较费时费资源的过程,当新建一个虚拟机时,虚拟机软件需要加载OS,返回新建过程是分钟级别的。而docker由于直接利用宿主机的操作系统,则省略了返回过程,因此新建一个docker容器只需要几秒钟。
三、Docker常用命令
1. 帮助启动类命令
# 启动docker
[root home]# systemctl start docker
# 停止docker
[root home]# systemctl stop docker
# 重启docker
[root home]# systemctl restart docker
# 查看docker状态
[root home]# systemctl status docker
# 开机启动
[root home]# systemctl enable docker
# 查看docker概要信息
[root home]# docker info
# 查看docker总体帮助文档
[root home]# docker --help
# 查看docker命令帮助文档
docker 具体命令 --help
2. 镜像命令
⑴ 列出本地主机上的镜像
# 列出本地主机上的镜像
[root home]# docker images
各个选项说明:
OPTIONS说明:
①-a
:列出本地所有的镜像(含历史映像层)
②-q
:只显示镜像ID。
⑵ 搜索某个镜像
1)通过网站搜索:
2) 通过命令行搜索
# docker search [OPTIONS] 镜像名字
[root home]# docker search redis
OPTIONS说明:
--limit
: 只列出N个镜像,默认25个
docker search --limit 5 redis
⑶ 拉取镜像
# docker pull 镜像名字[:TAG]
[root home]# docker pull mysql
docker pull 镜像名字
没有TAG就是最新版,等价于 docker pull 镜像名字:latest
⑷ 查看镜像/容器/数据卷所占的空间
# 查看镜像/容器/数据卷所占的空间
[root home]# docker system df
⑸ 删除镜像
1)删除单个镜像
# 删除单个镜像 docker rmi -f 镜像ID
[root home]# docker rmi -f 3218b38490ce
2)删除多个镜像
# 删除多个镜像 docker rmi -f 镜像名1:TAG 镜像名2:TAG
[root home]# docker rmi -f redis:6.0.8 ubuntu
3)删除全部镜像
# 删除全部 docker rmi -f $(docker images -qa)
[root home]# docker rmi -f $(docker images -qa)
⑹ docker虚悬镜像是什么
仓库名、标签都是的镜像,俗称虚悬镜像dangling image
3. 容器命令(用ubuntu容器举例)
有镜像才能创建容器,这是根本前提(下载一个CentOS或者ubuntu镜像演示)
⑴ 下载centos的镜像
[root home]# docker pull centos
⑵ 下载ubuntu的镜像
[root home]# docker pull ubuntu
⑶ 新建+启动容器
docker run [OPTIONS] IMAGE [COMMAND] [ARG...]
OPTIONS说明(常用):有些是一个减号,有些是两个减号
--name="容器新名字":
为容器指定一个名称;
-d:
后台运行容器并返回容器ID,也即启动守护式容器(后台运行);
-i:
以交互模式运行容器,通常与 -t 同时使用;
-t:
为容器重新分配一个伪输入终端,通常与 -i 同时使用;
也即启动交互式容器(前台有伪终端,等待交互);
-P:
随机端口映射,大写P
-p:
指定端口映射,小写p
# 使用镜像ubuntu:latest以交互模式启动一个容器,在容器内执行/bin/bash命令。
[root home]# docker run -it ubuntu /bin/bash
参数说明:
-i
: 交互式操作。
-t
: 终端。
ubuntu
: ubuntu 镜像。
/bin/bash
:放在镜像名后的是命令,这里我们希望有个交互式 Shell,因此用的是 /bin/bash。
要退出终端,直接输入 exit:
⑷ 列出当前所有正在运行的容器
# 列出当前所有正在运行的容器 docker ps [OPTIONS]
[root ~]# docker ps
OPTIONS说明(常用):
-a
:列出当前所有正在运行的容器+历史上运行过的
-l
:显示最近创建的容器。
-n
:显示最近n个创建的容器。
-q
:静默模式,只显示容器编号。
# 使用镜像ubuntu:latest以交互模式启动一个容器,在容器内执行/bin/bash命令,并指定该容器的名称
[root ~]# docker run -it --name=myubuntu ubuntu /bin/bash
# 重新开启一个linux终端,通过docker ps 列出当前所有正在运行的容器
[root ~]# docker ps
⑸ 退出容器(两种方式)
1) exit
run进去容器,exit退出,容器停止
# 通过exit退出容器
root:/# exit
2) ctrl+p+q
run进去容器,ctrl+p+q退出,容器不停止
⑹ 启动已停止运行的容器
# docker start 容器ID或者容器名
[root ~]# docker start f6f8fcd96828
⑺ 重启容器
# docker restart 容器ID或者容器名
[root ~]# docker restart f6f8fcd96828
⑻ 停止容器
# docker stop 容器ID或者容器名
[root ~]# docker stop f6f8fcd96828
⑼ 强制停止容器
# docker kill 容器ID或容器名
[root ~]# docker kill f6f8fcd96828
⑽ 删除已停止的容器
# docker rm 容器ID(该命令只能删除已经停止的容器)
[root ~]# docker rm f6f8fcd96828
# 一次性删除多个容器实例 (一般禁止使用该命令,等于是删库跑路的操作)
[root ~]# docker rm -f $(docker ps -a -q)
⑾ 容器命令综合演示
有镜像才能创建容器,这是根本前提(下载一个Redis6.0.8镜像演示)
[root ~]# docker pull redis:6.0.8
1) 启动守护式容器(后台服务器)
在大部分的场景下,我们希望 docker 的服务是在后台运行的,我们可以过 -d 指定容器的后台运行模式。
# docker run -d 容器名
# 使用镜像ubuntu:latest以后台模式启动一个容器
[root ~]# docker run -d ubuntu
问题: 然后docker ps -a 进行查看, 会发现容器已经退出
很重要的要说明的一点: Docker容器后台运行,就必须有一个前台进程.
容器运行的命令如果不是那些一直挂起的命令(比如运行top,tail),就是会自动退出的。
这个是docker的机制问题,比如你的web容器,我们以nginx为例,正常情况下,
我们配置启动服务只需要启动响应的service即可。例如service nginx start
但是,这样做,nginx为后台进程模式运行,就导致docker前台没有运行的应用,这样的容器后台启动后,会立即自杀因为他觉得他没事可做了.
所以,最佳的解决方案是,将你要运行的程序以前台进程的形式运行,常见就是命令行模式,表示我还有交互操作,别中断,O(∩_∩)O哈哈~
① 前台交互式启动
# 前台交互式启动
[root ~]# docker run -it redis:6.0.8
通过前台交互式启动,当ctrl+c终止服务的时候,该容器也会自动消失。所以redis不推荐使用前台交互式启动
② 后台守护式启动
# 后台守护式启动
[root ~]# docker run -d redis:6.0.8
通过后台守护式启动,ctrl+c操作不影响redis的后台运行,所以redis推荐使用该种方式启动
2) 查看容器日志
# 查看容器日志 docker logs 容器ID
[root ~]# docker logs a4ace8731495
3) 查看容器内运行的进程
# 查看容器内运行的进程 docker top 容器ID
[root ~]# docker top a4ace8731495
4) 查看容器内部细节
# 查看容器内部细节 docker inspect 容器ID
[root ~]# docker inspect a4ace8731495
5) 进入正在运行的容器并以命令行交互
① 方式一
# docker exec -it 容器ID bashShell
[root ~]# docker exec -it a7afb585db63 /bin/bash
② 方式二
# docker attach 容器ID
[root ~]# docker attach a7afb585db63
③ 上述两个区别
○ attach 直接进入容器启动命令的终端,不会启动新的进程,用exit退出,会导致容器的停止。
○ exec 是在容器中打开新的终端,并且可以启动新的进程用exit退出,不会导致容器的停止。
推荐大家使用 docker exec 命令,因为退出容器终端,不会导致容器的停止。
④ 通过docker容器操作redis
○ 进入redis容器
# docker exec -it 容器ID /bin/bash
[root ~]# docker exec -it 71ce6e70a4dc /bin/bash
○ 使用客户端操作redis
# 通过客户端操作redis
root:/data# redis-cli -p 6379
一般用-d后台启动的程序,再用exec进入对应容器实例
⑿ 从容器内拷贝文件到主机上
容器→主机
# docker cp 容器ID:容器内路径 目的主机路径
[root tmp]# docker cp a7afb585db63:/tmp/test.txt /tmp
⒀ 导入和导出容器
1) export 导出容器的内容留作为一个tar归档文件[对应import命令]
# docker export 容器ID > 文件名.tar
[root tmp]# docker export 9574ea849700 > docker_backup.tar.gz
2) import 从tar包中的内容创建一个新的文件系统再导入为镜像[对应export]
# cat 文件名.tar | docker import - 镜像用户/镜像名:镜像版本号
[root tmp]# cat docker_backup.tar.gz | docker import - kejizhentan/myubuntu:6.6.6
4. 常用命令
attach Attach to a running container # 当前 shell 下 attach 连接指定运行镜像
build Build an image from a Dockerfile # 通过 Dockerfile 定制镜像
commit Create a new image from a container changes # 提交当前容器为新的镜像
cp Copy files/folders from the containers filesystem to the host path #从容器中拷贝指定文件或者目录到宿主机中
create Create a new container # 创建一个新的容器,同 run,但不启动容器
diff Inspect changes on a container's filesystem # 查看 docker 容器变化
events Get real time events from the server # 从 docker 服务获取容器实时事件
exec Run a command in an existing container # 在已存在的容器上运行命令
export Stream the contents of a container as a tar archive # 导出容器的内容流作为一个 tar 归档文件[对应 import ]
history Show the history of an image # 展示一个镜像形成历史
images List images # 列出系统当前镜像
import Create a new filesystem image from the contents of a tarball # 从tar包中的内容创建一个新的文件系统映像[对应export]
info Display system-wide information # 显示系统相关信息
inspect Return low-level information on a container # 查看容器详细信息
kill Kill a running container # kill 指定 docker 容器
load Load an image from a tar archive # 从一个 tar 包中加载一个镜像[对应 save]
login Register or Login to the docker registry server # 注册或者登陆一个 docker 源服务器
logout Log out from a Docker registry server # 从当前 Docker registry 退出
logs Fetch the logs of a container # 输出当前容器日志信息
port Lookup the public-facing port which is NAT-ed to PRIVATE_PORT # 查看映射端口对应的容器内部源端口
pause Pause all processes within a container # 暂停容器
ps List containers # 列出容器列表
pull Pull an image or a repository from the docker registry server # 从docker镜像源服务器拉取指定镜像或者库镜像
push Push an image or a repository to the docker registry server # 推送指定镜像或者库镜像至docker源服务器
restart Restart a running container # 重启运行的容器
rm Remove one or more containers # 移除一个或者多个容器
rmi Remove one or more images # 移除一个或多个镜像[无容器使用该镜像才可删除,否则需删除相关容器才可继续或 -f 强制删除]
run Run a command in a new container # 创建一个新的容器并运行一个命令
save Save an image to a tar archive # 保存一个镜像为一个 tar 包[对应 load]
search Search for an image on the Docker Hub # 在 docker hub 中搜索镜像
start Start a stopped containers # 启动容器
stop Stop a running containers # 停止容器
tag Tag an image into a repository # 给源中镜像打标签
top Lookup the running processes of a container # 查看容器中运行的进程信息
unpause Unpause a paused container # 取消暂停容器
version Show the docker version information # 查看 docker 版本号
wait Block until a container stops, then print its exit code # 截取容器停止时的退出状态值
四、Docker镜像
1. 镜像的介绍
是一种轻量级、可执行的独立软件包,它包含运行某个软件所需的所有内容,我们把应用程序和配置依赖打包好形成一个可交付的运行环境(包括代码、运行时需要的库、环境变量和配置文件等),这个打包好的运行环境就是image镜像文件。
只有通过这个镜像文件才能生成Docker容器实例(类似Java中new出来一个对象)。
⑴ 分层的镜像
⑵ UnionFS(联合文件系统)
UnionFS(联合文件系统):Union文件系统(UnionFS)是一种分层、轻量级并且高性能的文件系统,它支持对文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下(unite several directories into a single virtual filesystem)。Union 文件系统是 Docker 镜像的基础。镜像可以通过分层来进行继承,基于基础镜像(没有父镜像),可以制作各种具体的应用镜像。
特性:一次同时加载多个文件系统,但从外面看起来,只能看到一个文件系统,联合加载会把各层文件系统叠加起来,这样最终的文件系统会包含所有底层的文件和目录
⑶ Docker镜像加载原理
docker的镜像实际上由一层一层的文件系统组成,这种层级的文件系统UnionFS。
bootfs(boot file system)主要包含bootloader和kernel, bootloader主要是引导加载kernel, Linux刚启动时会加载bootfs文件系统,在Docker镜像的最底层是引导文件系统bootfs。这一层与我们典型的Linux/Unix系统是一样的,包含boot加载器和内核。当boot加载完成之后整个内核就都在内存中了,此时内存的使用权已由bootfs转交给内核,此时系统也会卸载bootfs。
rootfs (root file system) ,在bootfs之上。包含的就是典型 Linux 系统中的 /dev, /proc, /bin, /etc 等标准目录和文件。rootfs就是各种不同的操作系统发行版,比如Ubuntu,Centos等等。
平时我们安装进虚拟机的CentOS都是好几个G,为什么docker这里才200M??
对于一个精简的OS,rootfs可以很小,只需要包括最基本的命令、工具和程序库就可以了,因为底层直接用Host的kernel,自己只需要提供 rootfs 就行了。由此可见对于不同的linux发行版, bootfs基本是一致的, rootfs会有差别, 因此不同的发行版可以公用bootfs。
⑷ 为什么 Docker 镜像要采用这种分层结构呢
镜像分层最大的一个好处就是共享资源,方便复制迁移,就是为了复用。
比如说有多个镜像都从相同的 base 镜像构建而来,那么 Docker Host 只需在磁盘上保存一份 base 镜像;
同时内存中也只需加载一份 base 镜像,就可以为所有容器服务了。而且镜像的每一层都可以被共享。
Docker镜像层都是只读的,容器层是可写的
当容器启动时,一个新的可写层被加载到镜像的顶部。
这一层通常被称作“容器层”,“容器层”之下的都叫“镜像层”。
所有对容器的改动 - 无论添加、删除、还是修改文件都只会发生在容器层中。只有容器层是可写的,容器层下面的所有镜像层都是只读的。
2. Docker镜像commit操作案例
⑴ 提交容器副本使之成为一个新的镜像
docker commit提交容器副本使之成为一个新的镜像
格式:docker commit -m="提交的描述信息" -a="作者" 容器ID 要创建的目标镜像名:[标签名]
⑵ 案例演示ubuntu安装vim
从Hub上下载ubuntu镜像到本地并成功运行
1) 原始的默认Ubuntu镜像是不带着vim命令的
2) 外网连通的情况下,安装vim
# docker容器内执行上述两条命令:
root:/# apt-get update
root:/# apt-get -y install vim
3) 安装完成后,commit我们自己的新镜像
# docker commit -m="提交的描述信息" -a="作者" 容器ID 要创建的目标镜像名:[标签名]
[root tmp]# docker commit -m="vim cmd add ok" -a="kejizhentan" 0a327c81d403 kjzt/myubuntuvim:1.1
4) 启动我们的新镜像并和原来的对比
① 官网是默认下载的Ubuntu没有vim命令
② 我们自己commit构建的镜像,新增加了vim功能,可以成功使用。
3. 小总结
Docker中的镜像分层,支持通过扩展现有镜像,创建新的镜像。类似Java继承于一个Base基础类,自己再按需扩展。
新镜像是从 base 镜像一层一层叠加生成的。每安装一个软件,就在现有镜像的基础上增加一层。
五、本地镜像发布到阿里云
1. 本地镜像发布到阿里云流程
2. 镜像的生成方法(两种方法)
⑴ 方式一
基于当前容器创建一个新的镜像,新功能增强
docker commit [OPTIONS] 容器ID [REPOSITORY[:TAG]]
OPTIONS说明:
-a
: 提交的镜像作者;
-m
: 提交时的说明文字;
⑵ 方式二
后面的DockerFile章节,第2种方法
3. 将本地镜像推送到阿里云
⑴ 本地镜像素材原型
⑵ 阿里云开发者平台
https://promotion.aliyun.com/ntms/act/kubernetes.html
⑶ 创建仓库镜像
1) 选择控制台,进入容器镜像服务
2) 选择个人实例
3) 命名空间
4) 仓库名称
5) 进入管理界面获得脚本
⑷ 将镜像推送到阿里云registry
1) 管理界面脚本
2) 脚本实例
这个脚本要根据自己实际的脚本进行修改
docker login --username=zzyybuy registry.cn-hangzhou.aliyuncs.com
docker tag cea1bb40441c registry.cn-hangzhou.aliyuncs.com/atguiguwh/myubuntu:1.1
docker push registry.cn-hangzhou.aliyuncs.com/atguiguwh/myubuntu:1.1
⑸ 将阿里云上的镜像下载到本地
# docker pull registry.cn-hangzhou.aliyuncs.com/kejizhentan/myubuntu:[镜像版本号]
[root tmp]# docker pull registry.cn-hangzhou.aliyuncs.com/kejizhentan/myubuntu:6.6.6
六、本地镜像发布到私有库
1. 本地镜像发布到私有库流程
2. 什么是Docker Registry
① 官方Docker Hub地址:https://hub.docker.com/,中国大陆访问太慢了且准备被阿里云取代的趋势,不太主流。
② Dockerhub、阿里云这样的公共镜像仓库可能不太方便,涉及机密的公司不可能提供镜像给公网,所以需要创建一个本地私人仓库供给团队使用,基于公司内部项目构建镜像。
Docker Registry是官方提供的工具,可以用于构建私有镜像仓库
3. 将本地镜像推送到私有库
⑴ 下载镜像Docker Registry
# 下载镜像Docker Registry
[root tmp]# docker pull registry
⑵ 运行私有库Registry,相当于本地有个私有Docker hub
# 运行私有库Registry,相当于本地有个私有Docker hub
[root tmp]# docker run -d -p 5000:5000 -v /zzyyuse/myregistry/:/tmp/registry --privileged=true registry
默认情况,仓库被创建在容器的/var/lib/registry目录下,建议自行用容器卷映射,方便于宿主机联调
⑶ 案例演示创建一个新镜像,ubuntu安装ifconfig命令
1) 从Hub上下载ubuntu镜像到本地并成功运行
2)原始的Ubuntu镜像是不带着ifconfig命令的
3) 外网连通的情况下,安装ifconfig命令并测试通过
# docker容器内执行上述两条命令:
root:/# apt-get update
root:/# apt-get install net-tools
4)安装完成后,commit我们自己的新镜像
公式:
docker commit -m=“提交的描述信息” -a=“作者” 容器ID 要创建的目标镜像名:[标签名]
命令:在容器外执行,记得
docker commit -m="ifconfig cmd add" -a="zzyy" a69d7c825c4f zzyyubuntu:1.2
# 公式:docker commit -m="提交的描述信息" -a="作者" 容器ID 要创建的目标镜像名:[标签名]
[root tmp]# docker commit -m="ifconfig cmd add" -a="kejizhentan" 6b27d081e8df myubuntu:6.6.6
5) 启动我们的新镜像并和原来的对比
① 官网是默认下载的Ubuntu没有ifconfig命令
② 我们自己commit构建的新镜像,新增加了ifconfig功能,可以成功使用。
⑷ curl验证私服库上有什么镜像
# curl验证私服库上有什么镜像
[root ~]# curl -XGET http://192.168.153.125:5000/v2/_catalog
⑸ 将新镜像myubuntu:6.6.6修改符合私服规范的Tag(可以理解为克隆一份)
按照公式:
docker tag 镜像:Tag Host:Port/Repository:Tag
# 使用命令 docker tag 将myubuntu:6.6.6 这个镜像修改为192.168.153.125:5000/myubuntu:6.6.6
[root ~]# docker tag myubuntu:6.6.6 192.168.153.125:5000/myubuntu:6.6.6
⑹ 修改配置文件使之支持http
docker默认不允许http方式推送镜像,通过配置选项来取消这个限制。
[root ~]# vim /etc/docker/daemon.json
{
"registry-mirrors": ["自己的阿里镜像加速器地址"],
"insecure-registries": ["自己的ip地址:5000"]
}
① 别无脑照着复制,registry-mirrors 配置的是国内阿里提供的镜像加速地址,不用加速的话访问官网的会很慢。
② 2个配置中间有个逗号 ','别漏了,这个配置是json格式的。
③ 修改完后如果不生效,建议重启docker(重启完成之后,别忘了启动本地的)
⑺ push推送到私服库
[root ~]# docker push 192.168.153.125:5000/myubuntu:6.6.6
⑻ curl验证私服库上有什么镜像
[root ~]# curl -XGET http://192.168.153.125:5000/v2/_catalog
⑼ pull到本地并运行
1) 为了防止原来的镜像影响测试,先删除本地所有的myubuntu镜像
2)从私服库pull镜像到本地并运行
# 从私服库pull镜像到本地并运行
[root ~]# docker pull 192.168.153.125:5000/myubuntu:6.6.6
# 运行镜像 docker run -it 镜像ID /bin/bash
[root ~]# docker run -it 135061104a23 /bin/bash
4. Docker容器数据卷
⑴ docker run -d -p 5000:5000 -v /zzyyuse/myregistry/:/tmp/registry --privileged=true registry
命令回顾与解析
1) 坑:容器卷记得加入--privileged=true
Docker挂载主机目录访问如果出现cannot open directory .: Permission denied
解决办法: 在挂载目录后多加一个--privileged=true
参数即可
如果是CentOS7安全模块会比之前系统版本加强,不安全的会先禁止,所以目录挂载的情况被默认为不安全的行为,
在SELinux里面挂载目录被禁止掉了额,如果要开启,我们一般使用--privileged=true
命令,扩大容器的权限解决挂载目录没有权限的问题,也即
使用该参数,container内的root拥有真正的root权限,否则,container内的root只是外部的一个普通用户权限。
2) 参数-V
的介绍
还记得蓝色框框中的内容吗?
① 参数v
的作用
卷就是目录或文件,存在于一个或多个容器中,由docker挂载到容器,但不属于联合文件系统,因此能够绕过Union File System提供一些用于持续存储或共享数据的特性:
卷的设计目的就是数据的持久化,完全独立于容器的生存周期,因此Docker不会在容器删除时删除其挂载的数据卷
一句话:有点类似我们Redis里面的rdb和aof文件,将docker容器内的数据保存进宿主机的磁盘中
② 运行一个带有容器卷存储功能的容器实例格式
运行一个带有容器卷存储功能的容器实例格式:
docker run -it --privileged=true -v /宿主机绝对路径目录:/容器内目录 镜像名
③ 参数-V
能干嘛
将运用与运行的环境打包镜像,run后形成容器实例运行 ,但是我们对数据的要求希望是持久化的。
Docker容器产生的数据,如果不备份,那么当容器实例删除后,容器内的数据自然也就没有了。
为了能保存数据在docker中我们使用卷。
特点:
1:数据卷可在容器之间共享或重用数据
2:卷中的更改可以直接实时生效,爽
3:数据卷中的更改不会包含在镜像的更新中
4:数据卷的生命周期一直持续到没有容器使用它为止
⑵ 数据卷案例
1) 宿主vs容器之间映射添加容器卷
① 公式
公式:
docker run -it --privileged=true -v /宿主机绝对路径目录:/容器内目录 镜像名
# 通过在宿主、容器之间映射添加容器卷的方式启动一个名字叫做u1的ubuntu的容器
[root ~]# docker run -it --privileged=true -v /tmp/myHostData:/tmp/myDockerData --name=u1 ubuntu /bin/bash
② 查看数据卷是否挂载成功
# docker inspect 容器ID
③ 容器和宿主机之间数据共享
1 docker修改,主机同步获得
2 主机修改,docker同步获得
3 docker容器stop,主机修改,docker容器重启看数据是否同步。
2) 读写规则映射添加说明
① 读写(默认)
格式:
docker run -it --privileged=true -v /宿主机绝对路径目录:/容器内目录:rw 镜像名
默认同上案例,默认就是rw,:rw可以省略
② 只读
容器实例内部被限制,只能读取不能写
格式:
docker run -it --privileged=true -v /宿主机绝对路径目录:/容器内目录:ro 镜像名
# 创建只能读的数据卷容器
[root ~]# docker run -it --privileged=true -v /tmp/myhost/u:/tmp/u:ro --name u3 ubuntu
/容器目录:ro 镜像名
就能完成功能,此时容器自己只能读取不能写
ro = read only
此时如果宿主机写入内容,可以同步给容器内,容器可以读取到。
3) 卷的继承和共享
① 容器1完成和宿主机的映射
格式:
docker run -it --privileged=true -v /宿主机绝对路径目录:/容器内目录 镜像名
# docker run -it --privileged=true -v /宿主机绝对路径目录:/容器内目录 镜像名
[root ~]# docker run -it --privileged=true -v /tmp/hostdata/u:/tmp/dockerdata --name uu1 ubuntu
② 容器2继承容器1的卷规则
格式:
docker run -it --privileged=true--volumes-from
父容器 --name u2 ubuntu
注意:-v 的全称就是volumes
# docker run -it --privileged=true --volumes-from 父容器 --name u2 ubuntu
[root ~]# docker run -it --privileged=true --volumes-from uu1 --name uu2 ubuntu
① 宿主、容器1、容器2三者之间数据共享
② docker容器2 stop,容器1修改、主机修改,docker容器2重启后数据依旧同步
七、Docker常规安装简介
1. 总体步骤
搜索镜像——>拉取镜像——>查看镜像——>启动镜像——>服务端口映射——>停止容器——>移除容器
2. 安装tomcat
⑴ docker hub上面查找tomcat镜像
[root ~]# docker search tomcat
⑵ 从docker hub上拉取tomcat镜像到本地
[root ~]# docker pull tomcat
⑶ docker images查看是否有拉取到的tomcat
[root ~]# docker images tomcat
⑷ 使用tomcat镜像创建容器实例(也叫运行镜像)
[root ~]# docker run -it -p 8080:8080 tomcat
-p小写
,主机端口:docker容器端口
-P 大写
,随机分配端口
i:
交互
t:
终端
d:
后台
⑸ 访问tomcat首页
访问:http://192.168.153.125:8080/
1) 问题:访问报404
2) 解决方法
① 可能没有映射端口或者没有关闭防火墙
做端口映射
关闭防火墙
② 把webapps.dist目录换成webapps
tomcat10版本以上webapps目录是空的
# 通过命令进到tomcat容器中
[root ~]# docker exec -it 1edeb88b9b9c /bin/bash
把webapps.dist目录换成webapps
访问:http://192.168.153.125:8080/
能成功访问tomcat首页
③ 下载其他版本的tomcat,避免访问404的问题
# 下载tomcat8的镜像
[root ~]# docker pull billygoo/tomcat8-jdk8
# 启动tomcat8
[root ~]# docker run -d -p 8080:8080 --name mytomcat8 billygoo/tomcat8-jdk8
访问:http://192.168.153.125:8080/
能成功访问tomcat首页
3. 安装mysql
⑴ docker hub上面查找mysql镜像
# docker hub上面查找mysql镜像
[root ~]# docker search mysql
⑵ 从docker hub上(阿里云加速器)拉取mysql镜像到本地标签为5.7
# 从docker hub上(阿里云加速器)拉取mysql镜像到本地标签为5.7
[root ~]# docker pull mysql:5.7
⑶ 使用mysql5.7镜像创建容器(也叫运行镜像)
1)运行mysql5.7镜像创建容器的命令由来
https://hub.docker.com/_/mysql
2) 简单版
① 使用mysql镜像
# 运行myslq镜像生成myslq容器
[root ~]# docker run -p 3306:3306 -e MYSQL_ROOT_PASSWORD=123456 -d mysql:5.7
# 查看mysql容器是否启动成功
[root ~]# docker ps
# 进入到mysql的容器中
[root ~]# docker exec -it 690209cbc5f5 /bin/bash
# 通过mysql命令连接mysql数据库
root:/# mysql -uroot -p
② 建库建表插入数据
③ 外部Win10也来连接运行在dokcer上的mysql容器实例服务
④ 问题
○ 插入中文数据报错
docker上默认字符集编码隐患
docker里面的mysql容器实例查看,内容如下:
mysql> SHOW VARIABLES LIKE 'character%';
○ 删除容器后,里面的mysql数据如何办?
删容器只能跑路了。。。。。
简单版安装,删除容器后,数据库信息也会跟着被删除
3) 实战版
① 新建mysql容器实例
[root ~]# docker run -d -p 3306:3306 --privileged=true -v /zzyyuse/mysql/log:/var/log/mysql -v /zzyyuse/mysql/data:/var/lib/mysql -v /zzyyuse/mysql/conf:/etc/mysql/conf.d -e MYSQL_ROOT_PASSWORD=123456 --name mysql mysql:5.7
同时添加多个数据卷
-v /zzyyuse/mysql/log:/var/log/mysql
-v /zzyyuse/mysql/data:/var/lib/mysql
-v /zzyyuse/mysql/conf:/etc/mysql/conf.d
② 新建my.cnf
[client]
default_character_set=utf8
[mysqld]
collation_server = utf8_general_ci
character_set_server = utf8
③ 重新启动mysql容器实例再重新进入并查看字符编码
# 重启myslq容器
[root conf]# docker restart mysql
# 进入mysql容器
[root conf]# docker exec -it mysql /bin/bash
# 查看mysql编码
mysql> SHOW VARIABLES LIKE 'character%';
④ 再新建库新建表再插入中文测试
由
show databases
命令查询可知,之前的DB 无效
结论: docker安装完MySQL并run出容器后,建议请先修改完字符集编码后再新建mysql库-表-插数据
⑤ 删除容器原先的mysql数据是否依旧存在测试
假如将当前容器实例删除,再重新来一次,之前建的db01实例还有吗?
实际运维过程中,推荐使用实战版的mysql容器创建方式
4. 安装redis
⑴ 从docker hub上(阿里云加速器)拉取redis镜像到本地标签为6.0.8
[root conf]# docker pull redis:6.0.8
⑵ 在CentOS宿主机下新建目录/app/redis
[root conf]# mkdir -p /app/redis
⑶ 将一个redis.conf文件模板拷贝进/app/redis目录下
⑷ /app/redis
目录下修改redis.conf
文件
1) 开启redis验证 (可选)
requirepass 123
2) 允许redis外地连接 (必须)
注释掉 # bind 127.0.0.1
3) 后台启动配置
将daemonize yes注释起来或者 daemonize no设置,因为该配置和docker run中-d参数冲突,会导致容器一直启动失败
4) 开启redis数据持久化 appendonly yes (可选)
⑸ 使用redis6.0.8镜像创建容器(也叫运行镜像)
[root redis]# docker run -p 6379:6379 --name myr3 --privileged=true -v /app/redis/redis.conf:/etc/redis/redis.conf -v /app/redis/data:/data -d redis:6.0.8 redis-server /etc/redis/redis.conf
同时添加多个数据卷
-v /app/redis/redis.conf:/etc/redis/redis.conf
-v /app/redis/data:/data
⑹ 测试redis-cli连接上来
# docker exec -it 运行着Rediis服务的容器ID redis-cli
[root redis]# docker exec -it myr3 /bin/bash
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wrBK1l2K-1673672221340)(null)]
⑺ 请证明docker启动使用了我们自己指定的配置文件
1) 修改配置文件前,数据库默认是16个
2)修改配置文件,将数据库改成10个(修改完配置文件一定记得重启容器)
宿主机的修改会同步给docker容器里面的配置。
八、docker软件集群安装
1. 安装mysql主从复制
⑴ 主从复制原理
Slave
会从 Master
读取 binlog
来进行数据同步。
⑵ 主从搭建步骤
前提条件是已经有mysql5.7的镜像
1) 新建主服务器容器实例3307
[root ~]#docker run -p 3307:3306 --name mysql-master \
-v /mydata/mysql-master/log:/var/log/mysql \
-v /mydata/mysql-master/data:/var/lib/mysql \
-v /mydata/mysql-master/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root \
-d mysql:5.7
同时添加多个数据卷
-v /mydata/mysql-master/log:/var/log/mysql
-v /mydata/mysql-master/data:/var/lib/mysql
-v /mydata/mysql-master/conf:/etc/mysql
2) 进入/mydata/mysql-master/conf
目录下新建my.cnf
# 进入/mydata/mysql-master/conf目录
[root conf]# cd /mydata/mysql-master/conf
# 新建my.cnf
[root conf]# vim my.cnf
## 将下面的配置粘贴到my.cnf文件中
[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=101
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql
## 开启二进制日志功能
log-bin=mall-mysql-bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062
3) 修改完配置后重启master实例
[root conf]# docker restart mysql-master
4) 进入mysql-master容器
# 进入mysql-master容器
[root conf]# docker exec -it mysql-master /bin/bash
# 登录myslq数据库
root:/# mysql -uroot -proot
5) master容器实例内创建数据同步用户
# master容器实例内创建数据同步用户
mysql> CREATE USER 'slave'@'%' IDENTIFIED BY '123456';
# 给创建的用户授权
mysql> GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%';
6) 新建从服务器容器实例3308
[root ~]#docker run -p 3308:3306 --name mysql-slave \
-v /mydata/mysql-slave/log:/var/log/mysql \
-v /mydata/mysql-slave/data:/var/lib/mysql \
-v /mydata/mysql-slave/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root \
-d mysql:5.7
同时添加多个数据卷
-v /mydata/mysql-slave/log:/var/log/mysql
-v /mydata/mysql-slave/data:/var/lib/mysql
-v /mydata/mysql-slave/conf:/etc/mysql
7) 进入/mydata/mysql-slave/conf
目录下新建my.cnf
# 进入/mydata/mysql-slave/conf目录
[root ~]# cd /mydata/mysql-slave/conf
# 新建my.cnf
[root conf]# vim my.cnf
## 将下面的配置粘贴到my.cnf文件中
[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=102
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql
## 开启二进制日志功能,以备Slave作为其它数据库实例的Master时使用
log-bin=mall-mysql-slave1-bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062
## relay_log配置中继日志
relay_log=mall-mysql-relay-bin
## log_slave_updates表示slave将复制事件写进自己的二进制日志
log_slave_updates=1
## slave设置为只读(具有super权限的用户除外)
read_only=1
8) 修改完配置后重启slave实例
[root conf]# docker restart mysql-slave
9) 在主数据库
中查看主从同步状态
mysql> show master status;
10) 进入mysql-slave容器
# 进入mysql-slave容器
[root conf]# docker exec -it mysql-slave /bin/bash
# 登录mysql数据库
root:/# mysql -uroot -proot
11) 在从数据库中
配置主从复制
change master to master_host='宿主机ip',master_user='slave', master_password='123456',master_port=3307, master_log_file='mall-mysql-bin.000001',master_log_pos=617, master_connect_retry=30;
参数说明:
master_host:
主数据库的IP地址;
master_port:
主数据库的运行端口;
master_user:
在主数据库创建的用于同步数据的用户账号;
master_password:
在主数据库创建的用于同步数据的用户密码;
master_log_file:
指定从数据库要复制数据的日志文件,通过查看主数据的状态,获取File参数;
master_log_pos:
指定从数据库从哪个位置开始复制数据,通过查看主数据的状态,获取Position参数;
master_connect_retry:
连接失败重试的时间间隔,单位为秒。
mysql> change master to master_host='192.168.153.125', master_user='slave', master_password='123456', master_port=3307, master_log_file='mall-mysql-bin.000001', master_log_pos=617, master_connect_retry=30;
12) 在从数据库中
查看主从同步状态
mysql> show slave status \G;
13) 在从数据库中
开启主从同步
mysql> start slave;
14) 查看从数据库
状态发现已经同步
mysql> show slave status \G;
15) 主从复制测试
主机新建库——>使用库——>新建表——>插入数据,ok
从机使用库-查看记录,ok
2. 安装redis集群(cluster(集群)模式-docker版,哈希槽分区进行亿级数据存储)
⑴ 面试题(redis分布式存储的三种解决方案)
问题:1~2亿条数据需要缓存,请问如何设计这个存储案例?
答:单机单台100%不可能,肯定是分布式存储,用redis如何落地?
redis分布式存储的思想,一般业界有3种解决方案:
1) 哈希取余分区
2亿条记录就是2亿个k,v,我们单机不行,必须要分布式多机,假设有3台机器构成一个集群,用户每次读写操作都是根据公式:
hash(key) % N个机器台数,计算出哈希值,用来决定数据映射到哪一个节点上。
优点:
简单粗暴,直接有效,只需要预估好数据规划好节点,例如3台、8台、10台,就能保证一段时间的数据支撑。使用Hash算法让固定的一部分请求落到同一台服务器上,这样每台服务器固定处理一部分请求(并维护这些请求的信息),起到负载均衡+分而治之的作用。
缺点:
原来规划好的节点,进行扩容或者缩容就比较麻烦了额,不管扩缩,每次数据变动导致节点有变动,映射关系需要重新进行计算,在服务器个数固定不变时没有问题,如果需要弹性扩容或故障停机的情况下,原来的取模公式就会发生变化:Hash(key)/3会变成Hash(key) /?。
此时地址经过取余运算的结果将发生很大变化,根据公式获取的服务器也会变得不可控。
某个redis机器宕机了,由于台数数量变化,会导致hash取余全部数据重新洗牌。
2) 一致性哈希算法分区
① 一致性Hash算法背景
一致性哈希算法在1997年由麻省理工学院中提出的,设计目标是为了解决分布式缓存数据变动和映射问题,某个机器宕机了,分母数量改变了,自然取余数不OK了。
② 一致性Hash算法能干嘛
提出一致性Hash解决方案。目的是当服务器个数发生变动时,尽量减少影响客户端到服务器的映射关系
③ 一致性哈希算法分区3大步骤
○ 算法构建一致性哈希环
○ 服务器IP节点映射
○ key落到服务器的落键规则
④ 一致性哈希算法分区优缺点
○ 优点
- 一致性哈希算法的容错性
- 一致性哈希算法的扩展性
○ 缺点
一致性哈希算法的数据倾斜问题
总结:
3) 哈希槽分区
① 哈希槽分区是什么
○ 为什么出现
哈希槽实质就是一个数组,数组[0,2^14 -1]形成hash slot空间。
○ 能干什么
解决均匀分配的问题,在数据和节点之间又加入了一层,把这层称为哈希槽(slot),用于管理数据和节点之间的关系,现在就相当于节点上放的是槽,槽里放的是数据。
槽解决的是粒度问题,相当于把粒度变大了,这样便于数据移动。
哈希解决的是映射问题,使用key的哈希值来计算所在的槽,便于数据分配。
○ 多少个hash槽
一个集群只能有16384个槽,编号0-16383(0-2^14-1)。这些槽会分配给集群中的所有主节点,分配策略没有要求。可以指定哪些编号的槽分配给哪个主节点。集群会记录节点和槽的对应关系。解决了节点和槽的关系后,接下来就需要对key求哈希值,然后对16384取余,余数是几key就落入对应的槽里。slot = CRC16(key) % 16384。以槽为单位移动数据,因为槽的数目是固定的,处理起来比较容易,这样数据移动问题就解决了。
② 哈希槽计算
Redis 集群中内置了 16384 个哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点。当需要在 Redis 集群中放置一个 key-value时,redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,也就是映射到某个节点上。如下代码,key之A 、B在Node2, key之C落在Node3上
⑵ 3主3从redis集群配置
1) 前期准备
关闭防火墙、启动docker后台服务、准备redis镜像
2) 新建6个docker容器redis实例
docker run -d --name redis-node-1 --net host --privileged=true -v /data/redis/share/redis-node-1:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6381
docker run -d --name redis-node-2 --net host --privileged=true -v /data/redis/share/redis-node-2:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6382
docker run -d --name redis-node-3 --net host --privileged=true -v /data/redis/share/redis-node-3:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6383
docker run -d --name redis-node-4 --net host --privileged=true -v /data/redis/share/redis-node-4:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6384
docker run -d --name redis-node-5 --net host --privileged=true -v /data/redis/share/redis-node-5:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6385
docker run -d --name redis-node-6 --net host --privileged=true -v /data/redis/share/redis-node-6:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6386
命令分步解释
docker run:
创建并运行docker容器实例
--name redis-node-6:
容器名字
--net host:
使用宿主机的IP和端口,默认
--privileged=true:
获取宿主机root用户权限
-v /data/redis/share/redis-node-6:/data:
容器卷,宿主机地址:docker内部地址
redis:6.0.8:
redis镜像和版本号
--cluster-enabled yes:
开启redis集群
--appendonly yes:
开启持久化
--port 6386:
redis端口号
运行成功后效果如下:
3) 进入容器redis-node-1
并为6台机器构建集群关系
① 进入 容器redis-node-1
[root conf]# docker exec -it redis-node-1 /bin/bash
② 构建主从关系
root:/data# redis-cli --cluster create 192.168.153.125:6381 192.168.153.125:6382 192.168.153.125:6383 192.168.153.125:6384 192.168.153.125:6385 192.168.153.125:6386 --cluster-replicas 1
①
--cluster-replicas 1
表示为每个master创建一个slave节点
② 注意,进入docker容器后才能执行一下命令,且注意自己的真实IP地址
一切OK的话,3主3从搞定
4) 链接进入6381作为切入点,查看集群状态
root:/data# redis-cli -p 6381
127.0.0.1:6381> cluster info
127.0.0.1:6381> cluster nodes
实现了三主三从的集群配置
5) redis集群下数据读写存储测试
① 集群条件下路由失效情况
root:/data# redis-cli -p 6381
② 集群条件下连接redis需要添加参数-c
来防止路由失效
# 加入参数-c,优化路由
root:/data# redis-cli -p 6381 -c
6) 查看集群信息
root:/data# redis-cli --cluster check 192.168.153.125:6381
7) 容错切换迁移
① 主6381和从机切换,先停止主机6381
6381宕机了,6386上位成为了新的master。
② 先还原之前的3主3从
主从机器分配情况以实际情况为准
○ 先启6381
[root conf]# docker start redis-node-1
○ 再停6386
[root conf]# docker stop redis-node-6
○再启6386
[root conf]# docker start redis-node-6
③ 查看集群状态
# redis-cli --cluster check 自己IP:6381
root:/data# redis-cli --cluster check 192.168.153.125:6381
8) 主从扩容案例
① 新建6387、6388两个节点+新建后启动+查看是否8节点
docker run -d --name redis-node-7 --net host --privileged=true -v /data/redis/share/redis-node-7:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6387
docker run -d --name redis-node-8 --net host --privileged=true -v /data/redis/share/redis-node-8:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6388
# 查看redis容器情况
docker ps
② 进入6387容器实例内部
[root conf]# docker exec -it redis-node-7 /bin/bash
③ 将新增的6387节点(空槽号)作为master节点加入原集群
将新增的6387作为master节点加入集群
redis-cli --cluster add-node 自己实际IP地址:6387 自己实际IP地址:6381
6387
就是将要作为master新增节点
6381
就是原来集群节点里面的领路人,相当于6387拜拜6381的码头从而找到组织加入集群
root:/data# redis-cli --cluster add-node 192.168.153.125:6387 192.168.153.125:6381
④ 检查集群情况第1次
# 检查集群情况
# redis-cli --cluster check 真实ip地址:6381
root:/data# redis-cli --cluster check 192.168.153.125:6381
⑤ 重新分派槽号
# 重新分派槽号
# 命令:redis-cli --cluster reshard IP地址:端口号
root:/data# redis-cli --cluster reshard 192.168.153.125:6381
⑥ 检查集群情况第2次
# redis-cli --cluster check 真实ip地址:6381
root:/data# redis-cli --cluster check 192.168.153.125:6381
槽号分派说明
为什么6387是3个新的区间,以前的还是连续?
重新分配成本太高,所以前3家各自匀出来一部分,从6381/6382/6383三个旧节点分别匀出1364个坑位给新节点6387
⑦ 为主节点6387分配从节点6388
未给6387分配从节点前(四主三从)
# 为主节点6387分配从节点6388
# 命令:redis-cli --cluster add-node ip:新slave端口 ip:新master端口 --cluster-slave --cluster-master-id 新主机节点ID
root:/data# redis-cli --cluster add-node 192.168.153.125:6388 192.168.153.125:6387 --cluster-slave --cluster-master-id 70163268368bc5f2a4224fb2b5340dc14ebe968f
⑧ 检查集群情况第3次
# redis-cli --cluster check 192.168.153.125:6381
root:/data# redis-cli --cluster check 192.168.153.125:6381
9) 主从缩容案例(目的:6387和6388下线)
① 检查集群情况1获得6388的节点ID
# redis-cli --cluster check ip:端口
root:/data# redis-cli --cluster check 192.168.153.125:6381
② 将6388删除(从集群中将4号从节点6388删除)
# 命令:redis-cli --cluster del-node ip:从机端口 从机6388节点ID
root:/data# redis-cli --cluster del-node 192.168.153.125:6388 98f466baee61e1c7a5a4e7f0ebe3c37b7109a470
# 检查集群情况
root:/data# redis-cli --cluster check 192.168.153.125:6381
检查一下发现,6388被删除了,只剩下7台机器了。
③ 将6387的槽号清空,重新分配,本例将清出来的槽号都给6381
root:/data# redis-cli --cluster reshard 192.168.153.125:6381
具体的参数值由实际情况决定
④ 检查集群情况第二次
root:/data# redis-cli --cluster check 192.168.153.125:6381
4096个槽位都指给6381,它变成了8192个槽位,相当于全部都给6381了,不然要输入3次,一锅端
⑤ 将6387删除
# 命令:redis-cli --cluster del-node ip:端口 6387节点ID
root:/data# redis-cli --cluster del-node 192.168.153.125:6387 70163268368bc5f2a4224fb2b5340dc14ebe968f
⑥ 检查集群情况第三次
root:/data# redis-cli --cluster check 192.168.153.125:6381
九、DockerFile解析
1. DockerFile介绍
Dockerfile是用来构建Docker镜像的文本文件,是由一条条构建镜像所需的指令和参数构成的脚本。
⑴ 概述
⑵ 官网
官网地址:https://docs.docker.com/engine/reference/builder/
⑶ 构建三步骤
编写Dockerfile文件——>docker build命令构建镜像——>docker run依镜像运行容器实例
2. DockerFile构建过程解析
⑴ Dockerfile内容基础知识
● 每条保留字指令都必须为大写字母
且后面要跟随至少一个参数
● 指令按照从上到下,顺序执行
● #表示注释
● 每条指令都会创建一个新的镜像层并对镜像进行提交
⑵ Docker执行Dockerfile的大致流程
- docker从基础镜像运行一个容器
- 执行一条指令并对容器作出修改
- 执行类似docker commit的操作提交一个新的镜像层
- docker再基于刚提交的镜像运行一个新容器
- 执行dockerfile中的下一条指令直到所有指令都执行完成
⑶ 总结
从应用软件的角度来看,Dockerfile、Docker镜像与Docker容器分别代表软件的三个不同阶
● Dockerfile是软件的原材料
● Docker镜像是软件的交付品
● Docker容器则可以认为是软件镜像的运行态,也即依照镜像运行的容器实例
Dockerfile面向开发,Docker镜像成为交付标准,Docker容器则涉及部署与运维,三者缺一不可,合力充当Docker体系的基石。
● Dockerfile,需要定义一个Dockerfile,Dockerfile定义了进程需要的一切东西。Dockerfile涉及的内容包括执行代码或者是文件、环境变量、依赖包、运行时环境、动态链接库、操作系统的发行版、服务进程和内核进程(当应用进程需要和系统服务和内核进程打交道,这时需要考虑如何设计namespace的权限控制)等等;
● Docker镜像,在用Dockerfile定义一个文件之后,docker build时会产生一个Docker镜像,当运行 Docker镜像时会真正开始提供服务
● Docker容器,容器是直接提供服务的。
3. DockerFile常用保留字指令
参考tomcat8的dockerfile入门:https://github.com/docker-library/tomcat/blob/master/9.0/jdk8/corretto-al2/Dockerfile
⑴ FROM
基础镜像,当前新镜像是基于哪个镜像的,指定一个已经存在的镜像作为模板,第一条必须是from
⑵ MAINTAINER
镜像维护者的姓名和邮箱地址
⑶ RUN
容器构建时需要运行的命令
两种格式
● shell格式
例如:
RUN yum -y install vim
● exec格式
RUN是在 docker build时运行
⑷ EXPOSE
当前容器对外暴露出的端口
⑸ WORKDIR
指定在创建容器后,终端默认登陆的进来工作目录,一个落脚点
⑹ USER
指定该镜像以什么样的用户去执行,如果都不指定,默认是root
⑺ ENV
用来在构建镜像过程中设置环境变量
ENV MY_PATH /usr/mytest
这个环境变量可以在后续的任何RUN指令中使用,这就如同在命令前面指定了环境变量前缀一样
也可以在其它指令中直接使用这些环境变量
比如:WORKDIR$MY_PATH
⑻ ADD
将宿主机目录下的文件拷贝进镜像且会自动处理URL和解压tar压缩包
⑼ COPY
类似ADD,拷贝文件和目录到镜像中。
将从构建上下文目录中 <源路径> 的文件/目录复制到新的一层的镜像内的 <目标路径> 位置
COPY src dest
●src
: <src源路径>, 源文件或者源目录
●dest
:<dest目标路径>,容器内的指定路径,该路径不用事先建好,路径不存在的话,会自动创建。
⑽ VOLUME
容器数据卷,用于数据保存和持久化工作
⑾ CMD
指定容器启动后的要干的事情
注意
Dockerfile 中可以有多个 CMD 指令,但只有最后一个生效,CMD 会被 docker run 之后的参数替换
参考官网Tomcat的dockerfile演示讲解
● 官网最后一行命令
# 启动tomcat容器
[root conf]# docker run -it -p 8080:8080 fb5657adc892
# 把webapps.dist目录换成webapps
root:/usr/local/tomcat# rm -rf webapps
root:/usr/local/tomcat# mv webapps.dist webapps
访问:http://192.168.153.125:8080/
最后一行是
CMD ["catalina.sh", "run"]
,表示启动tomcat
● 我们演示自己的覆盖操作
[root conf]# docker run -it -p 8080:8080 fb5657adc892 /bin/bash
添加的
/bin/bash
参数覆盖了最后一行CMD ["catalina.sh", "run"]
,导致tomcat未启动
它和前面RUN命令的区别
● CMD是在docker run 时运行。
● RUN是在 docker build时运行。
⑿ ENTRYPOINT
也是用来指定一个容器启动时要运行的命令
类似于 CMD 指令,但是ENTRYPOINT不会被docker run后面的命令覆盖,
而且这些命令行参数会被当作参数送给 ENTRYPOINT 指令指定的程序
1) 命令格式和案例说明
命令格式
ENTRYPOINT可以和CMD一起用,一般是变参
才会使用 CMD ,这里的 CMD 等于是在给 ENTRYPOINT 传参。
当指定了ENTRYPOINT后,CMD的含义就发生了变化,不再是直接运行其命令而是将CMD的内容作为参数传递给ENTRYPOINT指令,他两个组合会变成
案例如下:假设已通过 Dockerfile 构建了 nginx:test 镜像
优点
在执行docker run的时候可以指定 ENTRYPOINT 运行所需的参数。
注意
如果 Dockerfile 中如果存在多个 ENTRYPOINT 指令,仅最后一个生效。
小总结
4. DockerFile案例
⑴ 自定义镜像mycentosjava8
1)案例要求
原生centos镜像创建的容器是没有vim、ifconfig、jdk等相关指令或者配置的
要求:自定义Centos7镜像具备vim+ifconfig+jdk8
JDK的下载镜像地址
官网下载地址:https://www.oracle.com/java/technologies/downloads/#java8
镜像下载地址:https://mirrors.yangxingzhen.com/jdk/
2) 编写Dockerfile文件
#指定一个已经存在的镜像作为模板
FROM centos:7
#镜像维护者的姓名和邮箱地址
MAINTAINER kejizhentan<kejizhentan.com>
#设置环境变量
ENV MYPATH /usr/local
#设置落脚点
WORKDIR $MYPATH
#安装vim编辑器
RUN yum -y install vim
#安装ifconfig命令查看网络IP
RUN yum -y install net-tools
#安装java8及lib库
RUN yum -y install glibc.i686
RUN mkdir /usr/local/java
#ADD 是相对路径jar,把jdk-8u341-linux-x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置
ADD jdk-8u341-linux-x64.tar.gz /usr/local/java/
#配置java环境变量
ENV JAVA_HOME /usr/local/java/jdk1.8.0_341
ENV JRE_HOME $JAVA_HOME/jre
ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
ENV PATH $JAVA_HOME/bin:$PATH
EXPOSE 80
CMD echo $MYPATH
CMD echo "success--------------ok"
CMD /bin/bash
注意:文件名必须是Dockerfile
3)docker build命令构建镜像
#docker build -t 新镜像名字:TAG .
[root myfile]# docker build -t centosjava8:1.5 .
注意,上面TAG后面有个空格,有个点
如果报如下错误,说明centos8太高了,改成7后就可以了。:
配置Dockerfile文件时候指定7版本
4)运行自定义的镜像mycentosjava8
# docker run -it 新镜像名字:TAG /bin/bash
[root myfile]# docker run -it centosjava8:1.5 /bin/bash
再体会下UnionFS(联合文件系统)
⑵ 虚悬镜像
1)什么是虚悬镜像
仓库名、标签都是<none>
的镜像,俗称dangling image
2)创建虚悬镜像
① 编辑Dockerfile文件
[root myfile]# vim Dockerfile
FROM ubuntu
CMD echo 'action is success'
② docker build命令构建镜像
[root myfile]# docker build .
3)查看虚悬镜像
[root myfile]# docker image ls -f dangling=true
4)删除虚悬镜像
[root myfile]# docker image prune
十、Docker微服务实战
1. 通过IDEA新建一个普通微服务模块
⑴ 建project
⑵ 改POM
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.5.6</version>
<relativePath/>
</parent>
<groupId>com.atguigu.docker</groupId>
<artifactId>docker_boot</artifactId>
<version>0.0.1-SNAPSHOT</version>
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<maven.compiler.source>1.8</maven.compiler.source>
<maven.compiler.target>1.8</maven.compiler.target>
<junit.version>4.12</junit.version>
<log4j.version>1.2.17</log4j.version>
<lombok.version>1.16.18</lombok.version>
<mysql.version>5.1.47</mysql.version>
<druid.version>1.1.16</druid.version>
<mapper.version>4.1.5</mapper.version>
<mybatis.spring.boot.version>1.3.0</mybatis.spring.boot.version>
</properties>
<dependencies>
<!--SpringBoot通用依赖模块-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-actuator</artifactId>
</dependency>
<!--test-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-resources-plugin</artifactId>
<version>3.1.0</version>
</plugin>
</plugins>
</build>
</project>
⑶ 写YML
server:
port: 6001
⑷ 编辑主启动类
package com.kejizhentan;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
public class DockerBootApplication {
public static void main(String[] args) {
SpringApplication.run(DockerBootApplication.class, args);
}
}
⑸ 编辑业务类
package com.kejizhentan.controller;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestMethod;
import org.springframework.web.bind.annotation.RestController;
import java.util.UUID;
public class OrderController {
("${server.port}")
private String port;
("/order/docker")
public String helloDocker() {
return "hello docker"+"\t"+port+"\t"+ UUID.randomUUID().toString();
}
(value ="/order/index",method = RequestMethod.GET)
public String index() {
return "服务端口号: "+"\t"+port+"\t"+UUID.randomUUID().toString();
}
}
⑹ 测试
完整项目如下:
启动项目访问:http://localhost:6001/order/docker
2. 通过dockerfile发布微服务部署到docker容器
⑴ IDEA工具里面搞定微服务jar包
docker_boot-0.0.1-SNAPSHOT.jar
⑵ 编写Dockerfile
# 基础镜像使用java
FROM java:8
# 作者
MAINTAINER kejizhentan
# VOLUME 指定临时文件目录为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
VOLUME /tmp
# 将jar包添加到容器中并更名为kejizhentan_docker.jar
ADD docker_boot-0.0.1-SNAPSHOT.jar kejizhentan_docker.jar
# 运行jar包
# touch命令的作用是修改kejizhentan_docker.jar这个文件的访问时间和修改时间为当前时间,而不会修改文件的内容。
RUN bash -c 'touch /kejizhentan_docker.jar'
ENTRYPOINT ["java","-jar","/kejizhentan_docker.jar"]
#暴露6001端口作为微服务
EXPOSE 6001
⑶ 将微服务jar包和Dockerfile文件上传到同一个目录下/mydocker
⑷ 构建镜像
# 打包成镜像文件
[root mydocker]# docker build -t kejizhentan_docker:1.6 .
⑸ 运行容器
[root mydocker]# docker run -d -p 6001:6001 kejizhentan_docker:1.6
⑹ 访问测试
访问地址:http://192.168.153.125:6001/order/index
十一、Docker网络
1. Docker网络是什么
⑴ docker不启动,默认网络情况
● ens33
● lo
● virbr0
在CentOS7的安装过程中如果有选择相关虚拟化的的服务安装系统后,启动网卡时会发现有一个以网桥连接的私网地址的virbr0网卡(virbr0网卡:它还有一个固定的默认IP地址192.168.122.1),是做虚拟机网桥的使用的,其作用是为连接其上的虚机网卡提供 NAT访问外网的功能。
我们之前学习Linux安装,勾选安装系统的时候附带了libvirt服务才会生成的一个东西,如果不需要可以直接将libvirtd服务卸载
yum remove libvirt-libs.x86_64
⑵ docker启动后,网络情况
会产生一个名为docker0的虚拟网桥
查看docker网络模式命令
[root ~]# docker network ls
当我们安装docker后,默认会自动创建三个网络
2. 常用基本命令
[root ~]# docker network --help
⑴ 创建网络
# docker network create XXX网络名字
[root ~]# docker network create aa_network
⑵ 查看网络
[root ~]# docker network ls
⑶ 查看网络源数据
# docker network inspect XXX网络名字
[root ~]# docker network inspect bridge
⑷ 删除网络
# docker network rm XXX网络名字
[root ~]# docker network rm aa_network
⑸ Docker网络案例
3. Docker网络能干嘛
- 容器间的互联和通信以及端口映射
- 容器IP变动时候可以通过服务名直接网络通信而不受到影响
4. 网络模式
⑴ 总体介绍
- bridge模式
使用--network bridge
指定,默认使用docker0 - host模式
使用--network host
指定 - none模式
使用--network none
指定 - container模式
使用--network container:NAME或者容器ID
指定
⑵ 容器实例内默认网络IP生产规则
1) 说明
① 先启动两个ubuntu容器实例
[root ~]# docker run -it --name u1 ubuntu /bin/bash
[root ~]# docker run -it --name u2 ubuntu /bin/bash
② docker inspect 容器ID or 容器名字
[root ~]# docker inspect u1|tail -n 20
[root ~]# docker inspect u2|tail -n 20
③ 关闭u1实例,新建u3,查看ip变化
[root ~]# docker stop u1
[root ~]# docker run -it --name u3 ubuntu /bin/bash
[root ~]# docker inspect u3|tail -n 20
2) 结论
docker容器内部的ip是有可能会发生改变的
⑶ 案例说明
1) bridge
① bridge是什么
Docker 服务默认会创建一个 docker0 网桥(其上有一个 docker0 内部接口),该桥接网络的名称为docker0,它在内核层
连通了其他的物理或虚拟网卡,这就将所有容器和本地主机都放到同一个物理网络
。Docker 默认指定了 docker0 接口 的 IP 地址和子网掩码,让主机和容器之间可以通过网桥相互通信。
# 查看 bridge 网络的详细信息,并通过 grep 获取名称项
[root ~]# docker network inspect bridge|grep name
[root ~]# ifconfig|grep docker
② bridge案例
● 说明
○ Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。
○ docker run 的时候,没有指定network的话默认使用的网桥模式就是bridge,使用的就是docker0。在宿主机ifconfig,就可以看到docker0和自己create的network(后面讲)eth0,eth1,eth2……代表网卡一,网卡二,网卡三……,lo代表127.0.0.1,即localhost,inet addr用来表示网卡的IP地址
○ 网桥docker0创建一对对等虚拟设备接口一个叫veth,另一个叫eth0,成对匹配。
- 整个宿主机的网桥模式都是docker0,类似一个交换机有一堆接口,每个接口叫veth,在本地主机和容器内分别创建一个虚拟接口,并让他们彼此联通(这样一对接口叫veth pair)
- 每个容器实例内部也有一块网卡,每个接口叫eth0
- docker0上面的每个veth匹配某个容器实例内部的eth0,两两配对,一 一匹配
通过上述,将宿主机上的所有容器都连接到这个内部网络上,两个容器在同一个网络下,会从这个网关下各自拿到分配的ip,此时两个容器的网络是互通的。
● 代码
[root ~]# docker run -d -p 8081:8080 --name tomcat81 billygoo/tomcat8-jdk8
[root ~]# docker run -d -p 8082:8080 --name tomcat82 billygoo/tomcat8-jdk8
● 两两匹配验证
[root ~]# ip addr|tail -n 8
root:/usr/local/tomcat# ip addr
root:/usr/local/tomcat# ip addr
2) host
① host是什么
直接使用宿主机的 IP 地址与外界进行通信,不再需要额外进行NAT 转换。
② host案例
● 说明
容器将不会获得一个独立的Network Namespace, 而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡而是使用宿主机的IP和端口。
● 代码
警告方式启动容器
[root ~]# docker run -d -p 8083:8080 --network host --name tomcat83 billygoo/tomcat8-jdk8
问题:
docke启动时总是遇见警告提示
原因:
docker启动时指定--network=host
或-net=host
,如果还指定了-p
映射端口,那这个时候就会有此警告,
并且通过-p
设置的参数将不会起到任何作用,端口号会以主机端口号为主,重复时则递增。
解决:
解决的办法就是使用docker的其他网络模式,例如--network=bridge
,这样就可以解决问题,或者直接无视。。。。O(∩_∩)O哈哈~
正确方式启动
[root ~]# docker run -d --network host --name tomcat83 billygoo/tomcat8-jdk8
● 无之前的配对显示了,看容器实例内部
[root ~]# docker inspect tomcat83|tail -n 20
由上图可知,容器内和容器外的网络配置一样。进一步说明容器直接使用宿主机的 IP 地址与外界进行通信,不再需要额外进行NAT 转换。
● 没有设置-p的端口映射了,如何访问启动的tomcat83??
直接 http://宿主机IP:8080/ 访问tomcat83
访问:http://192.168.153.125:8080/
在本地浏览器访问容器内的tomcat83看到访问成功,因为此时容器的IP借用主机的,所以容器共享宿主机网络IP,这样的好处是外部主机与容器可以直接通信。
3) none
① none是什么
在none模式下,并不为Docker容器进行任何网络配置。
也就是说,这个Docker容器没有网卡、IP、路由等信息,只有一个lo
需要我们自己为Docker容器添加网卡、配置IP等。
禁用网络功能,只有lo标识(就是127.0.0.1表示本地回环)
② none案例
● 代码
[root ~]# docker run -d -p 8084:8080 --network none --name tomcat84 billygoo/tomcat8-jdk8
4) container
① container 是什么
container⽹络模式
新建的容器和已经存在的一个容器共享一个网络ip配置而不是和宿主机共享。新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。
② container案例
● 本案例不适合用tomcat演示
[root ~]# docker run -d -p 8085:8080 --name tomcat85 billygoo/tomcat8-jdk8
[root ~]# docker run -d -p 8086:8080 --network container:tomcat85 --name tomcat86 billygoo/tomcat8-jdk8
相当于tomcat86和tomcat85公用同一个ip同一个端口,导致端口冲突
本案例用tomcat演示不合适。。。演示坑。。。。。。o(╥﹏╥)o
● 本例中使用Alpine演示
Alpine Linux 是一款独立的、非商业的通用 Linux 发行版,专为追求安全性、简单性和资源效率的用户而设计。 可能很多人没听说过这个 Linux 发行版本,但是经常用 Docker 的朋友可能都用过,因为他小,简单,安全而著称,所以作为基础镜像是非常好的一个选择,可谓是麻雀虽小但五脏俱全,镜像非常小 巧,不到 6M的大小,所以特别适合容器打包。
● 代码
[root ~]# docker run -it --name alpine1 alpine /bin/sh
[root ~]# docker run -it --network container:alpine1 --name alpine2 alpine /bin/sh
运行结果,验证共用搭桥
● 假如此时关闭alpine1,再看看alpine2
5) 自定义网络
① 过时的link
访问:https://docs.docker.com/network/links/
② 自定义网络是什么
③ 案例
○ before 案例(不使用自定义网络的情况下)
-
代码
[root ~]# docker run -d -p 8081:8080 --name tomcat81 billygoo/tomcat8-jdk8 [root ~]# docker run -d -p 8082:8080 --name tomcat82 billygoo/tomcat8-jdk8
-
上述成功启动并用docker exec进入各自容器实例内部
[root ~]# docker exec -it tomcat81 /bin/bash [root myfile]# docker exec -it tomcat82 /bin/bah
-
问题
按照IP地址ping是OK的
按照服务名ping结果???
ping服务名是不通的
○ after案例(使用自定义网络的情况下)
自定义桥接网络,自定义网络默认使用的是桥接网络bridge
-
新建自定义网络
[root myfile]# docker network create kjzt_network
-
新建容器加入上一步新建的自定义网络
[root myfile]# docker run -d -p 8081:8080 --network kjzt_network --name tomcat81 billygoo/tomcat8-jdk8 [root myfile]# docker run -d -p 8082:8080 --network kjzt_network --name tomcat82 billygoo/tomcat8-jdk8
-
互相ping测试
按照IP地址ping和按照服务名ping都ok
自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通)
④ 使用自定义网络的好处
自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通),容器宕机后ip可能会变化,通过ping容器名的方式调用服务可以避免服务ip变化导致的服务请求错误的问题
5. Docker平台架构图解
从其架构和运行流程来看,Docker 是一个 C/S 模式的架构,后端是一个松耦合架构,众多模块各司其职。
Docker 运行的基本流程为:
- 用户是使用 Docker Client 与 Docker Daemon 建立通信,并发送请求给后者。
- Docker Daemon 作为 Docker 架构中的主体部分,首先提供 Docker Server 的功能使其可以接受 Docker Client 的请求。
- Docker Engine 执行 Docker 内部的一系列工作,每一项工作都是以一个 Job 的形式的存在。
- Job 的运行过程中,当需要容器镜像时,则从 Docker Registry 中下载镜像,并通过镜像管理驱动 Graph driver将下载镜像以Graph的形式存储。
- 当需要为 Docker 创建网络环境时,通过网络管理驱动 Network driver 创建并配置 Docker 容器网络环境。
- 当需要限制 Docker 容器运行资源或执行用户指令等操作时,则通过 Execdriver 来完成。
- Libcontainer是一项独立的容器管理包,Network driver以及Exec driver都是通过Libcontainer来实现具体对容器进行的操作。
十二、Docker-compose容器编排
1. Docker-compose容器编排是什么
Compose 是 Docker 公司推出的一个工具软件,可以管理多个 Docker 容器组成一个应用。你需要定义一个 YAML 格式的配置文件docker-compose.yml,写好多个容器之间的调用关系。 然后,只要一个命令,就能同时启动/关闭这些容器
Docker-Compose是Docker官方的开源项目,负责实现对Docker容器集群的快速编排。
2. Docker-compose容器编排能干嘛
docker建议我们每一个容器中只运行一个服务,因为docker容器本身占用资源极少,所以最好是将每个服务单独的分割开来但是这样我们又面临了一个问题?
如果我需要同时部署好多个服务,难道要每个服务单独写Dockerfile然后在构建镜像,构建容器,这样累都累死了,所以docker官方给我们提供了docker-compose多服务部署的工具
例如要实现一个Web微服务项目,除了Web服务容器本身,往往还需要再加上后端的数据库mysql服务容器,redis服务器,注册中心eureka,甚至还包括负载均衡容器等等。。。。。。
Compose允许用户通过一个单独的docker-compose.yml模板文件(YAML 格式)来定义一组相关联的应用容器为一个项目(project)。
可以很容易地用一个配置文件定义一个多容器的应用,然后使用一条指令安装这个应用的所有依赖,完成构建。Docker-Compose 解决了容器与容器之间如何管理编排的问题。
3. Docker-compose去哪下
⑴ 官网
官网地址:https://docs.docker.com/compose/compose-file/compose-file-v3/
官网下载:https://docs.docker.com/compose/install/
⑵ 安装步骤
[root ~]# curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
[root ~]# chmod +x /usr/local/bin/docker-compose
[root ~]# docker-compose --version
⑶ 卸载步骤
⑷ Compose核心概念
1) 一文件
docker-compose.yml
2) 两要素
● 服务(service)
一个个应用容器实例,比如订单微服务、库存微服务、mysql容器、nginx容器或者redis容器
● 工程(project)
由一组关联的应用容器组成的一个完整业务单元,在 docker-compose.yml
文件中定义。
⑸ Compose使用的三个步骤
1) 编写Dockerfile
定义各个微服务应用并构建出对应的镜像文件
2) 使用 docker-compose.yml
定义一个完整业务单元,安排好整体应用中的各个容器服务。
3) 最后,执行docker-compose up
命令 来启动并运行整个应用程序,完成一键部署上线
⑹ Compose常用命令
Compose常用命令
docker-compose -h # 查看帮助
docker-compose up # 启动所有docker-compose服务
docker-compose up -d # 启动所有docker-compose服务并后台运行
docker-compose down # 停止并删除容器、网络、卷、镜像。
docker-compose exec yml里面的服务id # 进入容器实例内部 docker-compose exec docker-compose.yml文件中写的服务id /bin/bash
docker-compose ps # 展示当前docker-compose编排过的运行的所有容器
docker-compose top # 展示当前docker-compose编排过的容器进程
docker-compose logs yml里面的服务id # 查看容器输出日志
docker-compose config # 检查配置
docker-compose config -q # 检查配置,有问题才有输出
docker-compose restart # 重启服务
docker-compose start # 启动服务
docker-compose stop # 停止服务
⑺ Compose编排微服务
1) 改造升级微服务工程docker_boot
① SQL建表建库
CREATE TABLE `t_user` (
`id` int(10) unsigned NOT NULL AUTO_INCREMENT,
`username` varchar(50) NOT NULL DEFAULT '' COMMENT '用户名',
`password` varchar(50) NOT NULL DEFAULT '' COMMENT '密码',
`sex` tinyint(4) NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
`deleted` tinyint(4) unsigned NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
`update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
`create_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COMMENT='用户表'
② 改POM
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.5.6</version>
<!--<version>2.3.10.RELEASE</version>-->
<relativePath/> <!-- lookup parent from repository -->
</parent>
<groupId>com.atguigu.docker</groupId>
<artifactId>docker_boot</artifactId>
<version>0.0.1-SNAPSHOT</version>
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<maven.compiler.source>1.8</maven.compiler.source>
<maven.compiler.target>1.8</maven.compiler.target>
<junit.version>4.12</junit.version>
<log4j.version>1.2.17</log4j.version>
<lombok.version>1.16.18</lombok.version>
<mysql.version>5.1.47</mysql.version>
<druid.version>1.1.16</druid.version>
<mapper.version>4.1.5</mapper.version>
<mybatis.spring.boot.version>1.3.0</mybatis.spring.boot.version>
</properties>
<dependencies>
<!--guava Google 开源的 Guava 中自带的布隆过滤器-->
<dependency>
<groupId>com.google.guava</groupId>
<artifactId>guava</artifactId>
<version>23.0</version>
</dependency>
<!-- redisson -->
<dependency>
<groupId>org.redisson</groupId>
<artifactId>redisson</artifactId>
<version>3.13.4</version>
</dependency>
<!--SpringBoot通用依赖模块-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-actuator</artifactId>
</dependency>
<!--swagger2-->
<dependency>
<groupId>io.springfox</groupId>
<artifactId>springfox-swagger2</artifactId>
<version>2.9.2</version>
</dependency>
<dependency>
<groupId>io.springfox</groupId>
<artifactId>springfox-swagger-ui</artifactId>
<version>2.9.2</version>
</dependency>
<!--SpringBoot与Redis整合依赖-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
<!--springCache-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-cache</artifactId>
</dependency>
<!--springCache连接池依赖包-->
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons-pool2</artifactId>
</dependency>
<!-- jedis -->
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>3.1.0</version>
</dependency>
<!--Mysql数据库驱动-->
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>5.1.47</version>
</dependency>
<!--SpringBoot集成druid连接池-->
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid-spring-boot-starter</artifactId>
<version>1.1.10</version>
</dependency>
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid</artifactId>
<version>${druid.version}</version>
</dependency>
<!--mybatis和springboot整合-->
<dependency>
<groupId>org.mybatis.spring.boot</groupId>
<artifactId>mybatis-spring-boot-starter</artifactId>
<version>${mybatis.spring.boot.version}</version>
</dependency>
<dependency>
<groupId>commons-codec</groupId>
<artifactId>commons-codec</artifactId>
<version>1.10</version>
</dependency>
<!--通用基础配置junit/devtools/test/log4j/lombok/hutool-->
<!--hutool-->
<dependency>
<groupId>cn.hutool</groupId>
<artifactId>hutool-all</artifactId>
<version>5.2.3</version>
</dependency>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>${junit.version}</version>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-devtools</artifactId>
<scope>runtime</scope>
<optional>true</optional>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
<dependency>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
<version>${log4j.version}</version>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<version>${lombok.version}</version>
<optional>true</optional>
</dependency>
<!--persistence-->
<dependency>
<groupId>javax.persistence</groupId>
<artifactId>persistence-api</artifactId>
<version>1.0.2</version>
</dependency>
<!--通用Mapper-->
<dependency>
<groupId>tk.mybatis</groupId>
<artifactId>mapper</artifactId>
<version>${mapper.version}</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-resources-plugin</artifactId>
<version>3.1.0</version>
</plugin>
</plugins>
</build>
</project>
③ 写YML
server.port=6001
# ========================alibaba.druid相关配置=====================
spring.datasource.type=com.alibaba.druid.pool.DruidDataSource
spring.datasource.driver-class-name=com.mysql.jdbc.Driver
spring.datasource.url=jdbc:mysql://192.168.153.125:3306/kejizhentan?useUnicode=true&characterEncoding=utf-8&useSSL=false
spring.datasource.username=root
spring.datasource.password=123456
spring.datasource.druid.test-while-idle=false
# ========================redis相关配置=====================
spring.redis.database=0
spring.redis.host=192.168.153.125
spring.redis.port=6379
spring.redis.password=
spring.redis.lettuce.pool.max-active=8
spring.redis.lettuce.pool.max-wait=-1ms
spring.redis.lettuce.pool.max-idle=8
spring.redis.lettuce.pool.min-idle=0
# ========================mybatis相关配置===================
mybatis.mapper-locations=classpath:mapper/*.xml
mybatis.type-aliases-package=com.kejizhentan.docker.entities
# ========================swagger=====================
spring.swagger2.enabled=true
④ 主启动
package com.kejizhentan.docker;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import tk.mybatis.spring.annotation.MapperScan;
("com.kejizhentan.docker.mapper") //import tk.mybatis.spring.annotation.MapperScan;
public class DockerBootApplication {
public static void main(String[] args) {
SpringApplication.run(DockerBootApplication.class, args);
}
}
2) 业务类
① config配置类
○ RedisConfig
package com.kejizhentan.docker.config;
import lombok.extern.slf4j.Slf4j;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.connection.lettuce.LettuceConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.GenericJackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;
import java.io.Serializable;
public class RedisConfig {
/**
* @param lettuceConnectionFactory
* @return
*
* redis序列化的工具配置类,下面这个请一定开启配置
* 127.0.0.1:6379> keys *
* 1) "ord:102" 序列化过
* 2) "\xac\xed\x00\x05t\x00\aord:102" 野生,没有序列化过
*/
public RedisTemplate<String, Serializable> redisTemplate(LettuceConnectionFactory lettuceConnectionFactory) {
RedisTemplate<String,Serializable> redisTemplate = new RedisTemplate<>();
redisTemplate.setConnectionFactory(lettuceConnectionFactory);
//设置key序列化方式string
redisTemplate.setKeySerializer(new StringRedisSerializer());
//设置value的序列化方式json
redisTemplate.setValueSerializer(new GenericJackson2JsonRedisSerializer());
redisTemplate.setHashKeySerializer(new StringRedisSerializer());
redisTemplate.setHashValueSerializer(new GenericJackson2JsonRedisSerializer());
redisTemplate.afterPropertiesSet();
return redisTemplate;
}
}
○ SwaggerConfig
package com.kejizhentan.docker.config;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import springfox.documentation.builders.ApiInfoBuilder;
import springfox.documentation.builders.PathSelectors;
import springfox.documentation.builders.RequestHandlerSelectors;
import springfox.documentation.service.ApiInfo;
import springfox.documentation.spi.DocumentationType;
import springfox.documentation.spring.web.plugins.Docket;
import springfox.documentation.swagger2.annotations.EnableSwagger2;
import java.text.SimpleDateFormat;
import java.util.Date;
public class SwaggerConfig
{
("${spring.swagger2.enabled}")
private Boolean enabled;
public Docket createRestApi() {
return new Docket(DocumentationType.SWAGGER_2)
.apiInfo(apiInfo())
.enable(enabled)
.select()
.apis(RequestHandlerSelectors.basePackage("com.kejizhentan.docker")) //你自己的package
.paths(PathSelectors.any())
.build();
}
public ApiInfo apiInfo() {
return new ApiInfoBuilder()
.title("柯基侦探微信公众号"+"\t"+new SimpleDateFormat("yyyy-MM-dd").format(new Date()))
.description("docker-compose")
.version("1.0")
.termsOfServiceUrl("https://www.kejizhentan.com/")
.build();
}
}
② 新建entity
○ User
package com.kejizhentan.docker.entities;
import javax.persistence.Column;
import javax.persistence.GeneratedValue;
import javax.persistence.Id;
import javax.persistence.Table;
import java.util.Date;
(name = "t_user")
public class User
{
(generator = "JDBC")
private Integer id;
/**
* 用户名
*/
private String username;
/**
* 密码
*/
private String password;
/**
* 性别 0=女 1=男
*/
private Byte sex;
/**
* 删除标志,默认0不删除,1删除
*/
private Byte deleted;
/**
* 更新时间
*/
(name = "update_time")
private Date updateTime;
/**
* 创建时间
*/
(name = "create_time")
private Date createTime;
/**
* @return id
*/
public Integer getId() {
return id;
}
/**
* @param id
*/
public void setId(Integer id) {
this.id = id;
}
/**
* 获取用户名
*
* @return username - 用户名
*/
public String getUsername() {
return username;
}
/**
* 设置用户名
*
* @param username 用户名
*/
public void setUsername(String username) {
this.username = username;
}
/**
* 获取密码
*
* @return password - 密码
*/
public String getPassword() {
return password;
}
/**
* 设置密码
*
* @param password 密码
*/
public void setPassword(String password) {
this.password = password;
}
/**
* 获取性别 0=女 1=男
*
* @return sex - 性别 0=女 1=男
*/
public Byte getSex() {
return sex;
}
/**
* 设置性别 0=女 1=男
*
* @param sex 性别 0=女 1=男
*/
public void setSex(Byte sex) {
this.sex = sex;
}
/**
* 获取删除标志,默认0不删除,1删除
*
* @return deleted - 删除标志,默认0不删除,1删除
*/
public Byte getDeleted() {
return deleted;
}
/**
* 设置删除标志,默认0不删除,1删除
*
* @param deleted 删除标志,默认0不删除,1删除
*/
public void setDeleted(Byte deleted) {
this.deleted = deleted;
}
/**
* 获取更新时间
*
* @return update_time - 更新时间
*/
public Date getUpdateTime() {
return updateTime;
}
/**
* 设置更新时间
*
* @param updateTime 更新时间
*/
public void setUpdateTime(Date updateTime) {
this.updateTime = updateTime;
}
/**
* 获取创建时间
*
* @return create_time - 创建时间
*/
public Date getCreateTime() {
return createTime;
}
/**
* 设置创建时间
*
* @param createTime 创建时间
*/
public void setCreateTime(Date createTime) {
this.createTime = createTime;
}
}
○ UserDTO
package com.kejizhentan.docker.entities;
import io.swagger.annotations.ApiModel;
import io.swagger.annotations.ApiModelProperty;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;
import java.io.Serializable;
import java.util.Date;
(value = "用户信息")
public class UserDTO implements Serializable
{
(value = "用户ID")
private Integer id;
(value = "用户名")
private String username;
(value = "密码")
private String password;
(value = "性别 0=女 1=男 ")
private Byte sex;
(value = "删除标志,默认0不删除,1删除")
private Byte deleted;
(value = "更新时间")
private Date updateTime;
(value = "创建时间")
private Date createTime;
/**
* @return id
*/
public Integer getId() {
return id;
}
/**
* @param id
*/
public void setId(Integer id) {
this.id = id;
}
/**
* 获取用户名
*
* @return username - 用户名
*/
public String getUsername() {
return username;
}
/**
* 设置用户名
*
* @param username 用户名
*/
public void setUsername(String username) {
this.username = username;
}
/**
* 获取密码
*
* @return password - 密码
*/
public String getPassword() {
return password;
}
/**
* 设置密码
*
* @param password 密码
*/
public void setPassword(String password) {
this.password = password;
}
/**
* 获取性别 0=女 1=男
*
* @return sex - 性别 0=女 1=男
*/
public Byte getSex() {
return sex;
}
/**
* 设置性别 0=女 1=男
*
* @param sex 性别 0=女 1=男
*/
public void setSex(Byte sex) {
this.sex = sex;
}
/**
* 获取删除标志,默认0不删除,1删除
*
* @return deleted - 删除标志,默认0不删除,1删除
*/
public Byte getDeleted() {
return deleted;
}
/**
* 设置删除标志,默认0不删除,1删除
*
* @param deleted 删除标志,默认0不删除,1删除
*/
public void setDeleted(Byte deleted) {
this.deleted = deleted;
}
/**
* 获取更新时间
*
* @return update_time - 更新时间
*/
public Date getUpdateTime() {
return updateTime;
}
/**
* 设置更新时间
*
* @param updateTime 更新时间
*/
public void setUpdateTime(Date updateTime) {
this.updateTime = updateTime;
}
/**
* 获取创建时间
*
* @return create_time - 创建时间
*/
public Date getCreateTime() {
return createTime;
}
/**
* 设置创建时间
*
* @param createTime 创建时间
*/
public void setCreateTime(Date createTime) {
this.createTime = createTime;
}
public String toString() {
return "User{" +
"id=" + id +
", username='" + username + '\'' +
", password='" + password + '\'' +
", sex=" + sex +
'}';
}
}
③ 新建mapper
○ 新建接口UserMapper
package com.kejizhentan.docker.mapper;
import com.kejizhentan.docker.entities.User;
import tk.mybatis.mapper.common.Mapper;
public interface UserMapper extends Mapper<User> {
}
○ src\main\resources
路径下新建mapper文件夹并新增UserMapper.xml
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
<mapper namespace="com.kejizhentan.docker.mapper.UserMapper">
<resultMap id="BaseResultMap" type="com.kejizhentan.docker.entities.User">
<!--
WARNING - .generated
-->
<id column="id" jdbcType="INTEGER" property="id" />
<result column="username" jdbcType="VARCHAR" property="username" />
<result column="password" jdbcType="VARCHAR" property="password" />
<result column="sex" jdbcType="TINYINT" property="sex" />
<result column="deleted" jdbcType="TINYINT" property="deleted" />
<result column="update_time" jdbcType="TIMESTAMP" property="updateTime" />
<result column="create_time" jdbcType="TIMESTAMP" property="createTime" />
</resultMap>
</mapper>
④ 新建service
○ UserService
package com.kejizhentan.docker.service;
import com.kejizhentan.docker.entities.User;
public interface UserService {
void addUser(User user);
User findUserById(Integer id);
}
○ UserServiceImp
package com.kejizhentan.docker.service.impl;
import com.kejizhentan.docker.entities.User;
import com.kejizhentan.docker.mapper.UserMapper;
import com.kejizhentan.docker.service.UserService;
import lombok.extern.slf4j.Slf4j;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.core.ValueOperations;
import org.springframework.stereotype.Service;
import org.springframework.web.bind.annotation.PathVariable;
import javax.annotation.Resource;
import java.util.concurrent.TimeUnit;
public class UserServiceImp implements UserService {
public static final String CACHE_KEY_USER = "user:";
private UserMapper userMapper;
private RedisTemplate redisTemplate;
/**
* addUser
*
* @param user
*/
public void addUser(User user) {
//1 先插入mysql并成功
int i = userMapper.insertSelective(user);
if (i > 0) {
//2 需要再次查询一下mysql将数据捞回来并ok
user = userMapper.selectByPrimaryKey(user.getId());
//3 将捞出来的user存进redis,完成新增功能的数据一致性。
String key = CACHE_KEY_USER + user.getId();
redisTemplate.opsForValue().set(key, user);
}
}
/**
* findUserById
*
* @param id
* @return
*/
public User findUserById(Integer id) {
User user = null;
String key = CACHE_KEY_USER + id;
//1 先从redis里面查询,如果有直接返回结果,如果没有再去查询mysql
user = (User) redisTemplate.opsForValue().get(key);
if (user == null) {
//2 redis里面无,继续查询mysql
user = userMapper.selectByPrimaryKey(id);
if (user == null) {
//3.1 redis+mysql 都无数据
//你具体细化,防止多次穿透,我们规定,记录下导致穿透的这个key回写redis
return user;
} else {
//3.2 mysql有,需要将数据写回redis,保证下一次的缓存命中率
redisTemplate.opsForValue().set(key, user);
}
}
return user;
}
}
⑤ 新建controller
package com.kejizhentan.docker.controller;
import cn.hutool.core.util.IdUtil;
import com.kejizhentan.docker.entities.User;
import com.kejizhentan.docker.service.UserService;
import io.swagger.annotations.Api;
import io.swagger.annotations.ApiOperation;
import lombok.extern.slf4j.Slf4j;
import org.springframework.web.bind.annotation.*;
import javax.annotation.Resource;
import java.util.Random;
(description = "用户User接口")
public class UserController {
private UserService userService;
("数据库新增3条记录")
(value = "/user/add", method = RequestMethod.POST)
public void addUser() {
for (int i = 1; i <= 3; i++) {
User user = new User();
user.setUsername("zzyy" + i);
user.setPassword(IdUtil.simpleUUID().substring(0, 6));
user.setSex((byte) new Random().nextInt(2));
userService.addUser(user);
}
}
("查询1条记录")
(value = "/user/find/{id}", method = RequestMethod.GET)
public User findUserById( Integer id) {
return userService.findUserById(id);
}
}
⑥ 测试:
访问:http://localhost:6001/swagger-ui.html#/
⑦ 打jar包,编写Dockerfile文件
○ 将微服务形成新的jar包,并上传到Linux服务器/mydocker目录下
○ 编写Dockerfile
# 基础镜像使用java
FROM java:8
# 作者
MAINTAINER kejizhentan
# VOLUME 指定临时文件目录为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
VOLUME /tmp
# 将jar包添加到容器中并更名为kejizhentan_docker.jar
ADD docker_boot-0.0.1-SNAPSHOT.jar kejizhentan_docker.jar
# 运行jar包
RUN bash -c 'touch /kejizhentan_docker.jar'
ENTRYPOINT ["java","-jar","/kejizhentan_docker.jar"]
#暴露6001端口作为微服务
EXPOSE 6001
⑧ 构建镜像
[root mydocker]# docker build -t kejizhentan_docker:1.6 .
3) 不用Compose编排部署微服务
① 单独的mysql容器实例
○ 新建mysql容器实例
[root mydocker]# docker run -p 3306:3306 --name mysql57 --privileged=true -v /zzyyuse/mysql/conf:/etc/mysql/conf.d -v /zzyyuse/mysql/logs:/logs -v /zzyyuse/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 -d mysql:5.7
○ 进入mysql容器实例并新建库kejizhentan+新建表t_user
[root mydocker]# docker exec -it mysql57 /bin/bash
root:/# mysql -uroot -p
mysql> create database kejizhentan;
mysql> use kejizhentan;
mysql> CREATE TABLE `t_user` (
`id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,
`username` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '用户名',
`password` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '密码',
`sex` TINYINT(4) NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
`deleted` TINYINT(4) UNSIGNED NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
`update_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
`create_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
PRIMARY KEY (`id`)
) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 COMMENT='用户表';
② 单独的redis容器实例
[root mydocker]# docker run -p 6379:6379 --name redis608 --privileged=true -v /app/redis/redis.conf:/etc/redis/redis.conf -v /app/redis/data:/data -d redis:6.0.8 redis-server /etc/redis/redis.conf
③ 微服务工程
# 启动微服务镜像
[root mydocker]# docker run -d -p 6001:6001 kejizhentan_docker:1.6
上面三个容器实例依次顺序启动成功
④ swagger测试
访问:http://ip:你的微服务端口/swagger-ui.html#/
⑤ 不用Compose编排虽然成功了,有哪些问题?
○ 先后顺序要求固定,先mysql+redis才能微服务访问成功
○ 多个run命令… 操作繁琐
○ 容器间的启停或宕机,有可能导致IP地址对应的容器实例变化,映射出错,要么生产IP写死(可以但是不推荐),要么通过服务调用
4) 用Compose编排部署微服务(服务编排,一套带走,安排)
① 编写docker-compose.yml
文件,放到/mydocker
下
version: "3"
services:
microService:
image: kejizhentan_docker:1.6
container_name: ms01
ports:
- "6001:6001"
volumes:
- /app/microService:/data
networks:
- kejizhentan_net
depends_on:
- redis
- mysql
redis:
image: redis:6.0.8
ports:
- "6379:6379"
volumes:
- /app/redis/redis.conf:/etc/redis/redis.conf
- /app/redis/data:/data
networks:
- kejizhentan_net
command: redis-server /etc/redis/redis.conf
mysql:
image: mysql:5.7
environment:
MYSQL_ROOT_PASSWORD: '123456'
MYSQL_ALLOW_EMPTY_PASSWORD: 'no'
MYSQL_DATABASE: 'kejizhentan'
MYSQL_USER: 'kjzt'
MYSQL_PASSWORD: '123456'
ports:
- "3306:3306"
volumes:
- /app/mysql/db:/var/lib/mysql
- /app/mysql/conf/my.cnf:/etc/my.cnf
- /app/mysql/init:/docker-entrypoint-initdb.d
networks:
- kejizhentan_net
command: --default-authentication-plugin=mysql_native_password #解决外部无法访问
networks:
kejizhentan_net:
② 第二次修改微服务工程docker_boot
○ 修改yml文件
server.port=6001
# ========================alibaba.druid相关配置=====================
spring.datasource.type=com.alibaba.druid.pool.DruidDataSource
spring.datasource.driver-class-name=com.mysql.jdbc.Driver
#spring.datasource.url=jdbc:mysql://192.168.153.125:3306/kejizhentan?useUnicode=true&characterEncoding=utf-8&useSSL=false
spring.datasource.url=jdbc:mysql://mysql:3306/kejizhentan?useUnicode=true&characterEncoding=utf-8&useSSL=false
spring.datasource.username=root
spring.datasource.password=123456
spring.datasource.druid.test-while-idle=false
# ========================redis相关配置=====================
spring.redis.database=0
#spring.redis.host=192.168.153.125
spring.redis.host=redis
spring.redis.port=6379
spring.redis.password=
spring.redis.lettuce.pool.max-active=8
spring.redis.lettuce.pool.max-wait=-1ms
spring.redis.lettuce.pool.max-idle=8
spring.redis.lettuce.pool.min-idle=0
# ========================mybatis相关配置===================
mybatis.mapper-locations=classpath:mapper/*.xml
mybatis.type-aliases-package=com.kejizhentan.docker.entities
# ========================swagger=====================
spring.swagger2.enabled=true
通过服务名访问,IP无关
○ 打jar包并上传到Linux服务器/mydocker目录下,编写Dockerfile文件
# 基础镜像使用java
FROM java:8
# 作者
MAINTAINER kejizhentan
# VOLUME 指定临时文件目录为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
VOLUME /tmp
# 将jar包添加到容器中并更名为kejizhentan_docker.jar
ADD docker_boot-0.0.1-SNAPSHOT.jar kejizhentan_docker.jar
# 运行jar包
RUN bash -c 'touch /kejizhentan_docker.jar'
ENTRYPOINT ["java","-jar","/kejizhentan_docker.jar"]
#暴露6001端口作为微服务
EXPOSE 6001
○ 编写Dockerfile
# 基础镜像使用java
FROM java:8
# 作者
MAINTAINER kejizhentan
# VOLUME 指定临时文件目录为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
VOLUME /tmp
# 将jar包添加到容器中并更名为kejizhentan_docker.jar
ADD docker_boot-0.0.1-SNAPSHOT.jar kejizhentan_docker.jar
# 运行jar包
RUN bash -c 'touch /kejizhentan_docker.jar'
ENTRYPOINT ["java","-jar","/kejizhentan_docker.jar"]
#暴露6001端口作为微服务
EXPOSE 6001
○ 构建镜像
[root mydocker]# docker build -t kejizhentan_docker:1.6 .
③ 执行Compose编排命令
# 执行 docker-compose up(前台执行) 或者 执行 docker-compose up -d(后台执行)
[root mydocker]# docker-compose up
④ 验证Compose编排
○ 查看运行的容器
○ 进入mysql容器实例并在kejizhentan库中新建表t_user
# docker exec -it 容器实例id /bin/bash
[root mydocker]# docker exec -it mydocker_mysql_1 /bin/bash
root:/# mysql -ukjzt -p
mysql> show databases;
CREATE TABLE `t_user` (
`id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,
`username` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '用户名',
`password` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '密码',
`sex` TINYINT(4) NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
`deleted` TINYINT(4) UNSIGNED NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
`update_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
`create_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
PRIMARY KEY (`id`)
) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 COMMENT='用户表';
⑤ 测试
请求:http://192.168.153.125:6001/swagger-ui.html#
⑥ Compose常用命令
Compose常用命令
docker-compose -h # 查看帮助
docker-compose up # 启动所有docker-compose服务
docker-compose up -d # 启动所有docker-compose服务并后台运行
docker-compose down # 停止并删除容器、网络、卷、镜像。
docker-compose exec yml里面的服务id # 进入容器实例内部 docker-compose exec docker-compose.yml文件中写的服务id /bin/bash
docker-compose ps # 展示当前docker-compose编排过的运行的所有容器
docker-compose top # 展示当前docker-compose编排过的容器进程
docker-compose logs yml里面的服务id # 查看容器输出日志
dokcer-compose config # 检查配置
dokcer-compose config -q # 检查配置,有问题才有输出
docker-compose restart # 重启服务
docker-compose start # 启动服务
docker-compose stop # 停止服务
⑦ Compose 关停
[root mydocker]# docker-compose stop
[root mydocker]# docker ps
十三、Docker轻量级可视化工具Portainer
1. Portainer是什么
Portainer 是一款轻量级的应用,它提供了图形化界面,用于方便地管理Docker环境,包括单机环境和集群环境。
2. Portainer安装
⑴ 官网
官网地址:https://www.portainer.io/
liunx版的地址:https://docs.portainer.io/v/ce-2.9/start/install/server/docker/linux
⑵ 安装步骤
1) docker命令安装
[root mydocker]# docker run -d -p 8000:8000 -p 9000:9000 --name portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer
--restart=always
该参数表示Portainer随docker容器的重启而自动重启
2)第一次登录需创建admin,访问地址:xxx.xxx.xxx.xxx:9000
访问:http://192.168.153.125:9000/#/init/admin
用户名,直接用默认admin
密码记得8位,随便你写
3) 设置admin用户和密码后首次登陆
4) 选择local选项卡后本地docker详细信息展示
上一步的图形展示,能想得起对应命令吗?
[root@kejizhentan mydocker]# docker system df
Portainer可以执行docker在linux上的大部分命令
⑶ 通过Portainer安装nginx
1) 添加容器
2) 配置相关参数并部署容器
3) 容器创建成功
4) 测试nginx是否安装成功
访问:ip:80
http://192.168.153.125:80
由上图可知,nginx已经成功安装
十四、 Docker容器监控之CAdvisor+InfluxDB+Granfana
1. docker的原生命令
⑴ 操作
[root mydocker]# docker ps
[root mydocker]# docker stats
⑵ 问题
通过docker stats命令可以很方便的看到当前宿主机上所有容器的CPU,内存以及网络流量等数据,一般小公司够用了。。。。
但是,
docker stats统计结果只能是当前宿主机的全部容器,数据资料是实时的,没有地方存储、没有健康指标过线预警等功能
2. CAdvisor+InfluxDB+Granfana三者是什么
CAdvisor
、InfluxDB
、Granfana
俗称容器监控3剑客,一句话概述就是:CAdvisor监控收集+InfluxDB存储数据+Granfana展示图表
⑴ CAdvisor
⑵ InfluxDB
⑶ Granfana
总结
3. compose容器编排CAdvisor+InfluxDB+Granfana,一套带走
⑴ 新建目录
mkdir /mydocker/cig
⑵ 新建‘3剑客’
组合的docker-compose.yml
version: '3.1'
volumes:
grafana_data: {}
services:
influxdb:
image: tutum/influxdb:0.9
restart: always
environment:
- PRE_CREATE_DB=cadvisor
ports:
- "8083:8083"
- "8086:8086"
volumes:
- ./data/influxdb:/data
cadvisor:
image: google/cadvisor
links:
- influxdb:influxsrv
command: -storage_driver=influxdb -storage_driver_db=cadvisor -storage_driver_host=influxsrv:8086
restart: always
ports:
- "8080:8080"
volumes:
- /:/rootfs:ro
- /var/run:/var/run:rw
- /sys:/sys:ro
- /var/lib/docker/:/var/lib/docker:ro
grafana:
user: "104"
image: grafana/grafana
user: "104"
restart: always
links:
- influxdb:influxsrv
ports:
- "3000:3000"
volumes:
- grafana_data:/var/lib/grafana
environment:
- HTTP_USER=admin
- HTTP_PASS=admin
- INFLUXDB_HOST=influxsrv
- INFLUXDB_PORT=8086
- INFLUXDB_NAME=cadvisor
- INFLUXDB_USER=root
- INFLUXDB_PASS=root
⑶ 启动docker-compose文件
1) 启动前先检查docker-compose.yml
文件是否有语法错误
[root cig]# docker-compose config -q
2) 启动docker-compose文件
[root cig]# docker-compose up
3) 查看三个服务容器是否启动
[root cig]# docker ps
⑷ CAdvisor+InfluxDB+Granfana测试
1) 浏览cAdvisor收集服务,http://ip:8080/
访问:http://192.168.153.125:8080/
第一次访问慢,请稍等
cadvisor也有基础的图形展现功能,这里主要用它来作数据采集
2) 浏览influxdb存储服务,http://ip:8083/
访问:http://192.168.153.125:8083/
3) 浏览grafana展现服务,http://ip:3000
访问:http://192.168.153.125:3000/
默认登录账号和密码都是 admin
① 配置数据源
② 选择influxdb数据源
③ 配置细节
④ 配置面板panel
○ 创建Dashboard
○ 添加panel
○ 选择监控的显示图形
○ 选择graph
○ 监控内存的相关配置
○ 保存相关监视配置
更多推荐
所有评论(0)