docker1.12+swarmkit

docker1.12+swarmkit

防伪码:风雨兼程

一、理论解析:

Docker Swarm  是什么?

Docker Swarm 是一个用于创建 Docker 主机(运行 Docker 守护进程的服务器)集群的工具,

使用 Swarm 操作集群,会使用户感觉就像是在一台主机上进行操作

docker1.12 集成了 swarmkit, 使你可以不用安装额外的软件包, 使用简单的命令启动创建

docker swarm 集群。

如果你在运行 Docker 1.12 时,你就可以原生创建一个 Swarm 集群 .

集成了 swarm 集群的安全特性, 集成了 K-V 存储, 你现在不需要额外部署 etcd 或者 consul

Docker1.12 版本中,一个大的功能点是 swarm 集群(基于 swarmkit 项目),通过 Docker

命令可以直接实现 docker-engine 相互发现,并组建成为一个容器集群。

SwarmKit 将节点分为两类:

工作节点(Worker :负责通过执行容器运行任务。SwarmKit 的默认执行器为 Docker 容器执

行器(Docker Container Executor)。

1)内建分布式存储,不要额外的数据库

2)支持 Rolling update

3 容器高可用

4)通过 TLS 保证了节点之间通讯的安全

管理节点(Manager :负责接收和响应用户请求,将集群状态调节到最终状态。在 SwarmKit

中,用户可以动态调整节点的角色,即在 Manager Worker 之间转换。

如下图所示,这是一个典型的 master-slave 的架构。每个节点都是运行着 Docker Engine

Docker 主机。一些节点有更高的权限,被称为Manager。下面的节点是 worker 节点,接收

来自 manager 组的任务指示。

                             wKiom1hlG7WjUzYzAAD9UwfDXSQ248.png

二、实验验证理论:

部署 docker1.12 Swarm

实验环境:

这里选择三台主机运行 Swarm,依次为:

node1 192.168.1.104

node2 192.168.1.105

node3 192.168.1.113

基本环境配置

3 台主机确保时间一致 ntp

3 台主机均关闭 selinux,开启路由转发。

3 台主机根据上面的实验环境描述修改主机名和 ip 地址

系统环境准备

准备系统环境, 配置 host 列表

3 台主机均修改/etc/hosts 文件,添加所有主机的 ip地址和主机名的映射记录

node1 为例子,同时给其它两台主机修改hosts文件:

wKiom1hlG8Pz_r9PAAJq2FiUUzE097.png-wh_50

开启宿主机之间的端口

TCP 端口 2377 集群管理端口

TCP UDP 端口 7946 节点之间通讯端口

TCP UDP 端口 4789overlay 网络通讯端口

wKioL1hlG-PQlpHAAACn864NKSA860.png-wh_50

配置所有节点密钥登录.

配置所下节点密钥互信, node1 可以免密码登录各节点,只在 node1 上执行:

生成sshkey

wKiom1hlG_jSDIBIAAF0ATxI4M4042.png-wh_50

使用for循环语句,发布 sshkey 到各个节点

wKioL1hlHAzSpj4GAAPsEhN_NnU259.png-wh_50

测试密钥登录

wKioL1hlHCGhU8gXAABjJ9236dI577.png-wh_50

安装 docker 1.12,每个节点都安装,这里使用rpm方式安装,

wKiom1hlHDPjVjH1AAFGutHK0mY895.png-wh_50

启动docker

wKioL1hlHEqjEUYGAAKs5XkloOw380.png-wh_50

检查docker版本

wKiom1hlHF_Aw2_JAABao2c7SBY769.png-wh_50

docker1.12 Swarm 模式简介

Docker Engine 1.12 集成了 Swarm 集群工具.

主要使用三个新的命令行工具创建一个 swarm 集群:

docker swarm 开启 swarm 模式; 加入 Swarm 集群; 配置集群参数

docker node 查询集群节点信息; 提升/移除一个管理节点; 管理 swarm 节点主机

docker service 创建管理 service

可以查看 docker --help

创建 Swarm 集群

node1 上初始化 swram 集群:

注意你只需要在一个 node1 上初始化 swarm 集群, 其他 node 加入这个集群就行了, 所以以

下命令只需要在 node1 上运行.

wKioL1hlHHTApezjAAGhiauPAaU016.png-wh_50

解释:根据如上命令的提示:

我们的其他节点服务器, worker 角色加入 swarm 集群需要登录到服务器运行如下命令:

wKiom1hlHIqDix3nAACUHBJ_wEc199.png-wh_50

manager 角色加入 swarm 集群:

wKiom1hlHJ7D2rYRAACW7OA8bT4309.png-wh_50

--advertise-addr 参数, 后面跟你 swarm 集群的通讯地址, 也就是 node1 的地址.

查看端口号监听情况

wKioL1hlHLCCe214AAC_gPrKVuY042.png-wh_50

检查 node1 docker swarm mode 信息:

#docker info

显示信息如下:

wKiom1hlHMLTH8OWAAE3a8jq0cQ369.png-wh_50

查看 swarm 集群 node 列表

wKiom1hlHNfCcp7WAACSLzbafKs826.png-wh_50

可以看到,我们的 swarm 集群中只有一个节点.现在我们把其他节点加入我们的集群中:

把其他节点加入集群中:

node1 通过 ssh, node2-node3 上执行上面的加入集群命令:

wKioL1hlHOjhfNtnAADqlKtnPyQ722.png-wh_50

注:如果你不记得上面提示的加入 swarm 集群的命令和密钥可以使用如下方式查看 worker

节点和 manager 节点的加入命令

wKiom1hlHPvR7GiNAAF4pJcQX-s776.png-wh_50

再次检查集群节点列表, 我们可以看到所有的服务器都已经加入 swarm 集群了

wKioL1hlHQ_Cu6RKAADKSIlB0bc923.png-wh_50

不过现在集群只有一个manager节点node1, 为了swarm集群的高可用,和避免单点故障.

们希望建立多个 manager 节点集群.

只需要通过如下命令, 提升 worker 节点成 manager 节点:

wKiom1hlHSfCeEA9AAD_XiYtC-o289.png-wh_50

现在我们可以看到, 已经有2manager节点了, 一个Leader节点, 一个Reachable节点.

在你也可以在 node2 上面管理整个 swarm 集群.

我们的 swarm 集群就搭建完毕了. 超级简单

习惯使用 docker 命令帮助:docker<command> --help

总结:

docker swarm:集群管理,子命令主要有下面几个。

docker swarm init 命令用于初始化一个集群

dockerswarm join 命令用于加入一个现有集群

dockerswarm leave 命令由于离开集群

附:node 下线

有些时候需要维护一个节点,此时此节点可能会网络断开或者需要关机,造成节点上服务不

可用。使用 docker node update --availability drain <NODE-ID>将节点下线,swarm 会将当前节

点上的容器关闭并在其他节点上启动。当维护完成,需要上线是,将节点状态修改为 active

状态即可,命令如下:docker node update --availability active <NODE-ID>

有了 Docker Swarm 集群我们如何把我们的应用跑在 Swarm 集群上呢?

很简单, 基本上原来我们使用 docker run 的命令创建容器, 把前面替换成 docker service

create 就行了.

建议搭建一个 registry,为所的 docker 主机提供镜像下载,否则你需要在每个 docker 主机本

地存在容器镜像。

所以搭建一个私有仓库,由私有仓库提供所需要的镜像,

本实验环境中用 node1 同时作为 registry

拉取本地私有仓库 registry,查看 registry 镜像

开启路由转发

vi /etc/sysctl.cof

添加 net.ipv4.ip_forward=1

执行 sysctl -p 使修改生效

从本地导入镜像

wKioL1hlHT3CH03SAAGUoV17QFI220.png-wh_50

附:registry1 python 语言写的,而现在 registry2 版本即 docker distribution 更加安全和快

速,并且是用 go 语言写的。

基于私有仓库镜像运行容器

默认情况下,registry2 会将仓库存放于容器的/var/lib/registry 目录下,这样如果容器被删除,

则存放于容器中的镜像也会丢失,所以我们一般情况下会指定本地一个目录挂载到容器的

/var/lib/registry 下,两个目录下都有!

·registry 的默认存储路径是/var/lib/registry,只是个临时目录,一段时间之后就会消失

·所以使用-v 参数,指定个本地持久的路径,

wKioL1hlHVChZ0uRAAGMSBTNBLE846.png-wh_50

返回{"repositories":[]} 说明 registry 服务工作正常.

注:镜像信息存放在/var/lib/registry 目录下,因此这里将宿主机目录映射到/var/lib/registry

所有主机都指向 registry 服务器:

修改/usr/lib/systemd/system/docker.service,修改后保存退出

wKiom1hlHYPhPgZCAAGtO7SveHA716.png

重载 docker 服务并重启 docker 服务

wKioL1hlHZewSHXeAABVt9FTZ8o492.png-wh_50

测试本地镜像仓库

有了本地镜像仓库 registry, 现在我们推送一个测试镜像到本机镜像仓库, 测试下 registry

.

测试:在 node2 主机上推送镜像到 registry

如果想把镜像推送到本地 registry.

需要先 tag 这个镜像的名字成<registry>/<p_w_picpath name>:<tag>

wKioL1hlHanwD2kiAADUn_oN6Q0527.png-wh_50

tag 后的镜像上传到 registry

wKiom1hlHbuhZ4mFAAFl2EmKIOc320.png-wh_50

push 成功后, 可以调用 registryAPI 查看 registry 中的镜像

wKiom1hlHeXhiukHAABpn_NW-Rw580.png-wh_50

node3 主机测试从 registry 下载镜像

wKiom1hlHfry95HTAAH0NMMyxro987.png-wh_50

overlay 网络

解决了镜像构建问题, 为了让应用跑在 swram集群,我们还需要解决容器间的网络访问问

.

单台服务器的时候我们应用所有的容器都跑在一台主机上, 所以容器之间的网络是互通的.

现在我们的集群有 3 台主机, 所以 docker 应用的服务会分布在这 3 台主机上.

如何保证不同主机上的容器网络互通呢?

swarm 集群 已经帮我们解决了这个问题了,就是只用 overlaynetwork .

docker 1.12 以前, swarm 集群需要一个额外的 key-value 存储(consul, etcd). 来同步

网络配置, 保证所有容器在同一个网段中.

docker 1.12 已经内置了这个存储, 集成了 overlay networks 的支持.

下面我们演示下如何创建一个 overlay network:

注:swarm 上默认已有一个名为 ingress overlay 网络, 可以直接使用, 但本文会创建一个

新的

为我们的 docker 应用创建一个名为 dockercoins overlay network

wKioL1hlHg_i3YXEAAB9p9OgywM418.png-wh_50

查询 docker network 列表

wKioL1hlHh3ijO5JAADlUfTIBHg182.png-wh_50

在网络列表中你可以看到 dockercoins 网络的 SCOPE swarm, 表示该网络在整个 swarm

群生效的, 其他一些网络是 local, 表示本机网络.

你只需要在 manager 节点创建 network, swarm 集群会自动处理配置到其他的节点,这是你可以查看其他节点的 network. dockercoins 网络已经都创建了.:

wKioL1hlHi-hsj1qAAEJWM1Nc4c177.png-wh_50

注:一旦新的任务被指定给这个节点,Overlay 网络就会被按需创建。

swarm 集群上运行 docker 应用

概念解释:service

Docker1.12 swarm 引入了服务的概念,一个服务由多个任务组成,一个任务即一个运行的容器。

服务包括两种类型:

复制服务(replicated services):类似 k8s 中复制集的概念,保持一定数量的相同任务在集

群中运行;

全局服务(global services):类似 k8s daemon 的概念,每个工作节点上运行一个。

发布服务:

manager 上执行如下命令:

下面我们可以使用之前 push 到本地镜像仓库的镜像启动服务, centos:http 为例:

以复制服务类型运行服务

manager 上执行如下命令:

wKioL1hlHkegCZ8JAACnt3lqGl8875.png-wh_50

docker service create 命令创建一个service.

--name 标签命名 service web1.

--replicas 标签来声明 1 个运行实体(即容器副本数)

注意, 我们启动的镜像名字 192.168.1.104:5000/centos:http 使用我们本地镜像仓库的镜像名

, 这样当主机上没有这个镜像时, 会自动到本地镜像仓库拉取镜像.

使用 docker service ls 查看服务

wKiom1hlHlzTNE0HAACOYr3K_IM067.png-wh_50

dockerservice inspect 命令用户查看service 详细信息

使用 docker serviceps<SERVICE-ID/NAME>查看服务运行在哪个节点上

wKiom1hlHmuTtdRsAADL1EtkN1g425.png-wh_50

现在你可以用浏览器访问 http://192.168.1.104:8000 就能访问测试页

wKioL1hlHoPy4seNAAFCFOj_UBI168.png-wh_50

事实上, 你可以访问swarm集群中的所有节点 192.168.1.105192.168.1.1138000端口,

可以访问测试页。(注:将 firewall 防火墙默认区域设置为 trusted

wKiom1hlHqfC9i0PAABz3Q2Slpk967.png-wh_50

manager 上执行如下命令:

wKioL1hlHrqA6-aHAAEN98iRS-U738.png-wh_50

--replicas 标签来声明 2 个运行实体

查看服务:

wKiom1hlHs_CKgYVAAGTfXeezsg882.png-wh_50

从上图可以看到 web2 名称的 service 2 个副本分别运行在 node2 node3 节点上。

以全局服务类型运行服务

wKioL1hlHt-AlKZAAAEz1ww4lqQ828.png-wh_50

从下图可以看到服务 web4 在每个节点上都运行一个

wKioL1hlHvCw4D3dAAFgfa-fnqk957.png-wh_50

下面我们扩展旧的服务,从下图可以看到 web1 service 目前只有一个副本

wKiom1hlHwDi_i3GAADR685_lrQ211.png-wh_50

扩展已有的服务的副本数,这里将 web1 服务扩展到 3 个副本

wKiom1hlHxCz-fX6AAIoSx50zYk770.png-wh_50

缩减已有的服务的副本数,这里将 web1 服务缩减到 2 个副本

wKioL1hlHyGRan1JAAD_cqe5dbA075.png-wh_50

Swarm 节点是自组织(self-organizing)和自修复(self-healing)的,什么意思?只要有节

点或容器宕掉,swarm engine 就会尝试修复,下面我们来具体看一下

自修复(self-healing

经过上面的操作之后,我们有以下 3 个节点:

wKiom1hlHzLzSkWVAADkVa5VObA667.png-wh_50

运行着 3个服务共 7 个任务(容器)

wKioL1hlH0HRn_aDAACzgosoYA4836.png-wh_50

Node1 节点上运行着容器 2 个容器还有一个私有仓库注册服务器容器

wKioL1hlH1ihOR5pAAGqh77w7YQ052.png-wh_50

Node2 节点上运行着容器 3 个容器

wKiom1hlH3TxRW26AAG_CTKPzxc058.png-wh_50

Node3 节点上运行着容器 2 个容器

wKiom1hlH5SybGjOAAFRiD27qPk761.png-wh_50

现在我们让 node3 上的容器都宕掉或部分宕掉

wKioL1hlH6jAkep_AAB1IQ2d8O4454.png-wh_50

一旦 node3 上所有容器停止,Docker 就会试图在相同的节点上启动 2 个不同 ID 的容器。

wKioL1hlH7qguUE6AAIM2GONZJ4584.png-wh_50

wKiom1hlH8qw-7KnAAG6lDs8-NA741.png-wh_50

这就是 Docker Swarm Engine self-healing 功能。

node3 节点上执行 docker ps 查看

Self-Organizing

现在我们让 node3 整个宕掉,node3 上的容器会自动在其它节点上启动。

manager 节点上执行 docker server ps 服务名

wKioL1hlH9zAC4vuAAG82PIKHt4881.png-wh_50

wKiom1hlH_Cg22qAAAG7Kw0pqGQ586.png-wh_50


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章