轻松搭建Kubernetes 1.2版运行环境
时间 2016-03-22 21:14:31懒程序员改变世界原文 http://qinghua.github.io/kubernetes-installation/主题KubernetesKubernetes简称k8s,是谷歌于2014年开始主导的开源项目,提供了以容器为中心的部署、伸缩和运维平台。截止目前它的最新版本为1.2。搭建环境之前建议先了解一下k
Kubernetes简称k8s,是谷歌于2014年开始主导的开源项目,提供了以容器为中心的部署、伸缩和运维平台。截止目前它的最新版本为1.2。搭建环境之前建议先了解一下kubernetes的相关知识,可以参考《如果有10000台机器,你想怎么玩?》系列文章。本文从零开始搭建一个kubernetes集群。
准备工作
我们需要先安装 virtualBox和 vagrant。通过vagrant来驱动virtualBox搭建一个虚拟测试环境。首先在本地任意路径新建一个空文件夹比如 test
,运行以下命令:
mkdir test
cd test
vagrant init minimum/ubuntu-trusty64-docker
vi Vagrantfile
里面应该有一句 config.vm.box = "minimum/ubuntu-trusty64-docker"
,在它的下面添加如下几行代码,相当于给它分配三台虚拟机,一台叫做master,它的IP是 192.168.33.17;另两台叫做 node1和node2,它们的IP是 192.168.33.18和 192.168.33.19。
config.vm.define "master" do | host |
host.vm.hostname = "master"
host.vm.network "private_network", ip: "192.168.33.17"
end
config.vm.define "node1" do | host |
host.vm.hostname = "node1"
host.vm.network "private_network", ip: "192.168.33.18"
end
config.vm.define "node2" do | host |
host.vm.hostname = "node2"
host.vm.network "private_network", ip: "192.168.33.19"
end
这个vagrant镜像已经在ubuntu的基础上帮我们安装了docker,用起来很方便。然后分别在三个终端运行以下命令启动并连接三台虚拟机。
vagrant up
vagrant ssh master
vagrant ssh node1
vagrant ssh node2
这个vagrant镜像默认的docker版本为1.9.0,如果你愿意,可以用下面的命令将其升级为1.10.3,但这不是必须的:
sudo apt-key adv --keyserver hkp://p80.pool.sks-keyservers.net:80 --recv-keys 58118E89F3A912897C070ADBF76221572C52609D
sudo sh -c "echo deb https://apt.dockerproject.org/repo ubuntu-trusty main > /etc/apt/sources.list.d/docker.list"
sudo apt-get update
sudo apt-get purge lxc-docker
sudo apt-cache policy docker-engine
sudo apt-get install docker-engine
sudo service docker restart
docker -v
搭建网络环境
为了打通不同主机上的容器的网络连接,最简单的方法是安装一个覆盖网络,这里我们使用flannel。它使用etcd来配置,所以我们需要先运行一个etcd实例。下面在master虚拟机上用容器运行一个etcd实例:
docker run -d \
--net=host \
--restart=always \
--name=etcd \
-v /var/etcd/data:/var/etcd/data \
kubernetes/etcd:2.0.5 \
/usr/local/bin/etcd \
--addr=192.168.33.17:4001 \
--bind-addr=0.0.0.0:4001 \
--data-dir=/var/etcd/data
接下来往etcd里插入flannel的配置数据。这里指定flannel可以使用的IP地址为 10.0.0.0/8
区间:
docker exec -it etcd etcdctl set /qinghua.github.io/network/config '{"Network": "10.0.0.0/8"}'
然后安装并在后台运行flannel:
wget -c https://github.com/coreos/flannel/releases/download/v0.5.5/flannel-0.5.5-linux-amd64.tar.gz
tar zxvf flannel-0.5.5-linux-amd64.tar.gz
sudo flannel-0.5.5/flanneld --etcd-endpoints=http://192.168.33.17:4001 --etcd-prefix=/qinghua.github.io/network --iface=eth1 > flannel.log 2>&1 &
cat flannel.log
Flannel启动完成后,会获得一个可用于分配的IP集合,并存放到 /run/flannel/subnet.env
里。我们需要配置一下docker的可用IP为可用于分配的IP:
source /run/flannel/subnet.env
sudo sh -c "echo DOCKER_OPTS=\\\"--bip=$FLANNEL_SUBNET --mtu=$FLANNEL_MTU\\\" >> /etc/default/docker"
sudo service docker restart
搭建k8s环境
终于轮到k8s啦。首先需要下载并解压kubernetes 1.2.0版:
wget -c https://github.com/kubernetes/kubernetes/releases/download/v1.2.0/kubernetes.tar.gz
tar zxvf kubernetes.tar.gz
tar zxvf kubernetes/server/kubernetes-server-linux-amd64.tar.gz
解压出来的文件里面含了一些启动master需要的docker镜像文件,将它们导入:
docker load -i kubernetes/server/bin/kube-apiserver.tar
docker load -i kubernetes/server/bin/kube-controller-manager.tar
docker load -i kubernetes/server/bin/kube-scheduler.tar
docker images
有条件科学上网的童鞋可以自行准备 gcr.io/google_containers/etcd:2.2.1
这个镜像,否则就凑合着使用先前的kubernetes/etcd:2.0.5
。注意,这里为了简单起见,使用同一套etcd。真实环境里,flannel和kubernetes使用的etcd是分开的。接下来开始启动api server:
docker run -d \
--name=apiserver \
--net=host \
gcr.io/google_containers/kube-apiserver:e68c6af15d4672feef7022e94ee4d9af \
kube-apiserver \
--insecure-bind-address=192.168.33.17 \
--service-cluster-ip-range=11.0.0.0/16 \
--etcd-servers=http://192.168.33.17:4001
然后是controller manager:
docker run -d \
--name=cm \
gcr.io/google_containers/kube-controller-manager:b9107c794e0564bf11719dc554213f7b \
kube-controller-manager \
--master=192.168.33.17:8080
最后是scheduler:
docker run -d \
--name=scheduler \
gcr.io/google_containers/kube-scheduler:903b34d5ed7367ec4dddf846675613c9 \
kube-scheduler \
--master=192.168.33.17:8080
服务器启动完毕,可以运行以下命令来查看版本,咱们用的是1.2:
kubernetes/server/bin/kubectl -s 192.168.33.17:8080 version
接下来该客户端了。首先启动kubelet:
NODE_IP=`ifconfig eth1 | grep 'inet addr:' | cut -d: -f2 | cut -d' ' -f1` sudo kubernetes/server/bin/kubelet --api-servers=192.168.33.17:8080 --node-ip=$NODE_IP > kubelet.log 2>&1 & cat kubelet.log
Kuberlet启动完成后,在master上就可以看到了:
kubernetes/server/bin/kubectl -s 192.168.33.17:8080 get no
最后启动kube-proxy:
sudo kubernetes/server/bin/kube-proxy --master=192.168.33.17:8080 > proxy.log 2>&1 &
cat proxy.log
测试k8s环境
环境安装好了,接下来试着启动一个pod。启动之前,由于kubernetes需要通过gcr.io/google_containers/pause:2.0的小镜像来管理pod的网络。它会自动下载,如果没有科学上网导致下载不到,那么可以先用docker hub上的kubernetes/pause来代替:
docker pull kubernetes/pause
docker tag kubernetes/pause gcr.io/google_containers/pause:2.0
然后就可以用命令行在任意一台虚拟机上运行一个tomcat,并生成服务:
cat << EOF >tomcat.yaml
apiVersion: v1
kind: ReplicationController
metadata:
name: tomcat
spec:
replicas: 1
selector:
app: tomcat
template:
metadata:
name: tomcat
labels:
app: tomcat
spec:
containers:
- name: tomcat
image: tomcat:8.0.30-jre8
ports:
- containerPort: 8080
---
apiVersion: v1
kind: Service
metadata:
name: tomcat
labels:
app: tomcat
spec:
type: NodePort
selector:
app: tomcat
ports:
- port: 80
targetPort: 8080
nodePort: 30088
EOF
kubernetes/server/bin/kubectl -s 192.168.33.17:8080 create -f tomcat.yaml
一开始由于需要下载tomcat镜像可能会慢点,随时可以用下面的命令来查看进度:
kubernetes/server/bin/kubectl -s 192.168.33.17:8080 describe po tomcat
可以用下面的命令来查看pod、replication controller、service和endpoint:
kubernetes/server/bin/kubectl -s 192.168.33.17:8080 get po kubernetes/server/bin/kubectl -s 192.168.33.17:8080 get rc kubernetes/server/bin/kubectl -s 192.168.33.17:8080 get svc kubernetes/server/bin/kubectl -s 192.168.33.17:8080 get ep
我们看到的endpoint里,应该有一个tomcat。在我的虚拟机上它的ENDPOINTS是 10.0.8.3:8080
,访问一下:
POD_IP=`kubernetes/server/bin/kubectl -s 192.168.33.17:8080 get ep tomcat -o jsonpath={.subsets[*].addresses[*].ip}` echo $POD_IP curl $POD_IP:8080
顺利的话,这三台虚拟机任意一台都可以访问这个tomcat的endpoint。由于启动这三台vagrant虚拟机的主机上并没有安装flannel,所以目前就别想用主机的浏览器打开这个网址啦。但是,由于我们创建服务的时候类型设置为NodePort,这样外部是可以通过任意node的特定端口访问这个服务的。也就是说,下面这两个url都是可以在集群外部访问的,并且效果一样:
初步测试完毕,可以使用以下命令来删除刚才创建的tomcat系列对象:
kubernetes/server/bin/kubectl -s 192.168.33.17:8080 delete -f tomcat.yaml
更多推荐
所有评论(0)