docker的3种自定义网络(bridge、overlay、macvlan)
Docker 提供三种 user-defined 网络驱动:bridge, overlay 和 macvlanoverlay 和 macvlan 用于创建跨主机的网络1. 自定义网络自定义网络需要使用create命令,先来看看create命令可以跟哪些参数刚才原生网络不存在域名解析,但是自定义网络存在域名解析(1)bridge模式创建自定义的bridge网络并且查看创建一个bri...
Docker 提供三种 user-defined 网络驱动:bridge, overlay 和 macvlan
overlay 和 macvlan 用于创建跨主机的网络
1. 自定义网络
自定义网络需要使用create命令,先来看看create命令可以跟哪些参数
刚才原生网络不存在域名解析,但是自定义网络存在域名解析
(1)bridge模式
创建自定义的bridge网络并且查看
创建一个bridge模式的网络
由上图我们可以看到创建的网络ID ,使用ip addr查看本机网络:
[root@server1 ~]# docker network create my_net1
c0ea578da8ded1a686bb92d222aa08e57d3ccae0263b4cc5a4ed40bf27085ec6
[root@server1 ~]# docker network ls
NETWORK ID NAME DRIVER SCOPE
ebe1319bd402 bridge bridge local
73d43be8de20 host host local
c0ea578da8de my_net1 bridge local
0a62de6bab53 none null local
[root@server1 ~]#
运行容器vm1并且指定网络模式为刚才自定义的bridge模式
可以看到ip地址和宿主机的ip不在一个网段
[root@server1 ~]# docker run -it --name vm1 --network my_net1 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
27: eth0@if28: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue
link/ether 02:42:ac:13:00:02 brd ff:ff:ff:ff:ff:ff
inet 172.19.0.2/16 brd 172.19.255.255 scope global eth0
valid_lft forever preferred_lft forever
/ #
再运行一个容器,发现ip地址也是递增的,并且容器之间具有域名解析,可以ping通
[root@server1 ~]# docker run -it --name vm2 --network my_net1 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
33: eth0@if34: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue
link/ether 02:42:ac:13:00:03 brd ff:ff:ff:ff:ff:ff
inet 172.19.0.3/16 brd 172.19.255.255 scope global eth0
valid_lft forever preferred_lft forever
/ #
自定义的bridge模式也可以自己指定ip网段和网段
[root@server1 ~]# docker network create --subnet 172.20.0.0/24 --gateway 172.20.0.1 my_net2
50e59286b0e962147c728bfe4ab34782ad6e27bef5b64fb6609cada19ace3e4b
[root@server1 ~]# docker network ls
NETWORK ID NAME DRIVER SCOPE
ebe1319bd402 bridge bridge local
73d43be8de20 host host local
c0ea578da8de my_net1 bridge local
50e59286b0e9 my_net2 bridge local
0a62de6bab53 none null local
[root@server1 ~]#
发现自定义网络的ip会出现在宿主机上面
查看一下刚才自定义的网络my_net1和my_net2
my_net1的网段没有指定,那就是以宿主机桥接的网段为基础递增的
查看docker自定义网络如下图,当我们创建好自定义网络后,自定义为其分配IP网段和网关。
docker的bridge自定义网络之间默认是有域名解析的;
docker的bridge自定义网络与系统自带的网桥之间默认是有解析的;
但是docker的系统自带的网桥之间默认是没有解析的。
运行容器的时候可以指定ip
[root@server1 ~]# docker run -it --name vm1 --network my_net2 --ip 172.20.0.10 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
37: eth0@if38: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue
link/ether 02:42:ac:14:00:0a brd ff:ff:ff:ff:ff:ff
inet 172.20.0.10/24 brd 172.20.0.255 scope global eth0
valid_lft forever preferred_lft forever
/ #
[root@server1 ~]# docker run -it --name vm2 --network my_net2 --ip 172.20.0.100 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
39: eth0@if40: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue
link/ether 02:42:ac:14:00:64 brd ff:ff:ff:ff:ff:ff
inet 172.20.0.100/24 brd 172.20.0.255 scope global eth0
valid_lft forever preferred_lft forever
/ # ping vm1
PING vm1 (172.20.0.10): 56 data bytes
64 bytes from 172.20.0.10: seq=0 ttl=64 time=0.088 ms
64 bytes from 172.20.0.10: seq=1 ttl=64 time=0.069 ms
64 bytes from 172.20.0.10: seq=2 ttl=64 time=0.082 ms
^C
--- vm1 ping statistics ---
3 packets transmitted, 3 packets received, 0% packet loss
round-trip min/avg/max = 0.069/0.079/0.088 ms
/ #
此时在一个网段的容器仍然可以ping通
刚才在以my_net2为基础运行了两个容器vm1和vm2,网段是172.20.0,可以互相ping通
接下来在以my_net1为基础运行两个容器vm3和vm4,网段是172.18.0,也可以互相ping通
发现vm1、vm2和vm3、vm4ping不通
因为在宿主机上定义的两个网络my_net1和my_net2就不在一个网段
因此基于这两种网络运行起来的容器肯定ping不通
接下来想实现这两种网络之间的通信(my_net1和my_net2)
给vm1容器添加一块my_net1的网卡,就可以和mysq_net2容器vm3、vm4进行通信了
建立两个容器之间的连接
[root@server1 ~]# docker network connect my_net1 vm1
[root@server1 ~]# docker container attach vm1
/ # ping vm3
PING vm3 (172.19.0.2): 56 data bytes
64 bytes from 172.19.0.2: seq=0 ttl=64 time=0.091 ms
64 bytes from 172.19.0.2: seq=1 ttl=64 time=0.118 ms
^C
--- vm3 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 0.091/0.104/0.118 ms
/ #
上面简单实现了同一宿主机上不同网段容器之间的通信
以上我们实现了:使用自定义网络实现容器间的通信
docker的bridge自定义网络之间:双方可以随便添加对方的网卡
docker的bridge自定义网络与系统自带的网桥之间:只能是,系统自带的网桥对应的容器 添加 bridge自定义网络对应的容器的网卡。而反过来会报错。
但是docker的系统自带的网桥之间:是可以通信的,因为是在一个网络桥接上。
docker 1.10开始,内嵌了一个DNS server。dns解析功能必须在自定义网络中使用。
Docker的3种自定义网络(bridge、overlay、macvlan)
Docker 提供三种 user-defined 网络驱动:bridge, overlay 和 macvlan。
overlay 和 macvlan 用于创建跨主机的网络,后面专门列出来演示
ctrl+p+q,后台退出继续保持容器运行
使用--ip
参数可以指定容器ip地址,但必须是在自定义网桥上
(自定义的ip地址和网关地址),
默认的bridge模式不支持,同一网桥上的容器是可以通信的
更多推荐
所有评论(0)