基于 Docker 的高可用 Rails 集群方案探索

er74 9年前

【编者的话】本文是暴走漫画团队关于自动化高可用集群方案的探索。主要目的是减少人工接入,实现自动化。主要是用了consul和registrator两个工具。

0x0 问题

运维从来都是一个“不起眼”的大问题。运维工作还特别琐碎,一般要花去工程师大量的时间,同时还有突发性,对工程师机动性要求比较高。所以运维自动化一直在困扰暴走漫画团队。

虽说大部分运维工作都交给第三方云服务提供商了,但是平时还是有一些机器的维护之类的,繁琐的事情。

我做的最多的应该就是加减服务器了。暴漫的流量趋势非常规律,每年寒暑假是访问的高峰期,一般会比平时流量高出2倍。所以每年寒暑假之前都要添加 足量的服务器以应对马上到来的流量高峰,而在寒暑假结束之后,要去掉一部分机器,以节省开支。刚开始完全是人肉运维,我一个人先去开5台机器,然后一个个 上去改配置文件之类的,感觉好傻。后面就用了ansible作为自动化运维工具,这个要比puppet和chef轻量很多,对付我们这些简单的运维工作绰 绰有余。 于是现在就变成了开完机器,用ansible同步配置,代码,启动app server,然后手动更新nginx配置。

使用ansible之后其实已经轻松很多了,但是还不够,我想象中的自动化集群,应该可以随意增加删除node,node不可用的时候自动删除,当然这些都不能影响服务的访问。

下面介绍一种自动化的Rails集群方案。

0x1 相关技术


0X2 整体架构

 基于 Docker 的高可用 Rails 集群方案探索

0x3 实践

由于不是科普帖,各种工具的详细信息就不自己介绍了。
consul & registrator 

这两个工具是集群中每个节点的基础服务。我在一台机器上,所以把consul cluster给省掉了,只用了一个consul节点。下面是docker-compose配置。
consul:  hostname: node1  image: progrium/consul  command: -server -bootstrap -advertise 172.17.42.1  ports:   - "8400:8400"   - "8500:8500"   - "8600:53/udp"  registrator:  image: gliderlabs/registrator  command: consul://consul:8500  hostname: registrator1  volumes:   - /var/run/docker.sock:/tmp/docker.sock  links:   - consul 

需要注意的是consul的启动参数里的advertise。应该声明为host机器的docker0的ip。如果不声明的话会默认使用容器ip,这样registrator注册的设备ip都是不可访问的。

以上配置启动之后一套自动服务器发现功能就算完工了。

接下来,我们配置一个web应用测试一下。
web:      image: nginx      volumes:           - ./sites-enabled:/etc/nginx/conf.d      ports:           - "80:80"      links:           - rails  rails:      image: tutum/hello-world      ports:           - "80"

这个配置生成了nginx和rails,并且挂载了本地的sites-enabled文件夹作为nginx的配置来源。注意rails的ports是随机的。

在sites-enabled中配置nginx server已rails作为backend。
upstream backend {  }  server {      server_name "10.0.2.15";      location / {              proxy_pass http://backend;      }  } 

对你并没有看错, upstream并没有定义可用的backend node。这个配置将会有consul-template根据服务列表自动填充。

让我们启动这个web应用,访问80端口是无法访问的 应为没有backend node。

接下来需要安装consule-template, 在github下载对应的release。

然后创建一个配置文件ct-nginx.conf
consul = "127.0.0.1:8500"  log_level = "warn"    template {      source = "/home/vagrant/nginx.ctmpl"      destination = "/home/vagrant/sites-enabled/backend.conf"      command = "docker-compose -f /home/vagrant/docker-compose.yml restart web"  } 

我有映射consul的端口,所以直接使用了127.0.0.1。source就是我们配置文件的模板。如下
upstream backend {      {{range service "hello-world"}}      server {{.Address}}:{{.Port}};{{end}}  }  server {      server_name "10.0.2.15";      location / {              proxy_pass http://backend;      }  } 

consul-template提供了方便的模板查询语句,可以直接从consul中查询并渲染出配置文件。这个模板中就找出了所有名字为“hello-world”的service,并且循环输出service对应的Address,也就是服务ip,Port。

接着看ct-nginx.conf,destination代表模板生成完毕之后的位置, 这里直接放在nginx的配置文件夹,最后command是生成配置后的动作,可以重启各种服务。我们这里在更新nginx之后重启生效。

OK,配置已经妥当,consul和registrator也已经启动, 让我们看看当前的服务列表。
$ curl localhost:8500/v1/catalog/service/hello-world?pretty  $ []

当前并没有注册名为hello_world的服务。

稍微提一下registrator注册服务的命名机制,registaor默认是通过提取容器各种参数来生成的的服务参数
比如
docker run -d --name nginx.0 -p 4443:443 -p 8000:80 progrium/nginx

生成的服务信息如下
[  {      "ID": "hostname:nginx.0:443",      "Name": "nginx-443",      "Port": 4443,      "IP": "192.168.1.102",      "Tags": [],      "Attrs": {},  },  {      "ID": "hostname:nginx.0:80",      "Name": "nginx-80",      "Port": 8000,      "IP": "192.168.1.102",      "Tags": [],      "Attrs": {}  }  ]

当然也可以通过环境变量来指定
$ docker run -d --name nginx.0 -p 4443:443 -p 8000:80 \             -e "SERVICE_443_NAME=https" \             -e "SERVICE_443_ID=https.12345" \             -e "SERVICE_443_SNI=enabled" \             -e "SERVICE_80_NAME=http" \             -e "SERVICE_TAGS=www" progrium/nginx

[  {      "ID": "https.12345",      "Name": "https",      "Port": 4443,      "IP": "192.168.1.102",      "Tags": ["www"],      "Attrs": {"sni": "enabled"},  },  {      "ID": "hostname:nginx.0:80",      "Name": "http",      "Port": 8000,      "IP": "192.168.1.102",      "Tags": ["www"],      "Attrs": {}  }  ]

接下来我们启动consul-template
$ consul-template -config=./ct-nginx.conf

会直接根据模板生成一个nginx配置 虽然现在并没有backend node。
$ cat /home/vagrant/sites-enabled/backend.conf  upstream backend {  }  server {      server_name "10.0.2.15";      location / {              proxy_pass http://backend;      }  } 

然后启动我们的web应用。
启动之后,请求服务列表就可以看到helle-world服务,说明已经实现自动服务发现。
$ curl localhost:8500/v1/catalog/service/hello-world?pretty  [  {      "Node": "node1",      "Address": "172.17.42.1",      "ServiceID": "registrator1:vagrant_rails_1:80",      "ServiceName": "hello-world",      "ServiceTags": null,      "ServiceAddress": "",      "ServicePort": 32783  }  ] 

浏览器中可以正常访问了,Yeah!
 基于 Docker 的高可用 Rails 集群方案探索

OK, 让我们更进一步,scale我们的rails node。
$ docker-compose scale rails=4    $ curl localhost:8500/v1/catalog/service/hello-world?pretty  [  {      "Node": "node1",      "Address": "172.17.42.1",      "ServiceID": "registrator1:vagrant_rails_1:80",      "ServiceName": "hello-world",      "ServiceTags": null,      "ServiceAddress": "",      "ServicePort": 32783  },  {      "Node": "node1",      "Address": "172.17.42.1",      "ServiceID": "registrator1:vagrant_rails_2:80",      "ServiceName": "hello-world",      "ServiceTags": null,      "ServiceAddress": "",      "ServicePort": 32784  },  {      "Node": "node1",      "Address": "172.17.42.1",      "ServiceID": "registrator1:vagrant_rails_3:80",      "ServiceName": "hello-world",      "ServiceTags": null,      "ServiceAddress": "",      "ServicePort": 32785  },  {      "Node": "node1",      "Address": "172.17.42.1",      "ServiceID": "registrator1:vagrant_rails_4:80",      "ServiceName": "hello-world",      "ServiceTags": null,      "ServiceAddress": "",      "ServicePort": 32786  }  ] 

此时nginx已经重启,可以看到4个backend都开始处理请求。
 基于 Docker 的高可用 Rails 集群方案探索

可以看到,rails服务器只要启动之后就自动加入集群,如果一台节点挂掉之后,会自动从集群里去掉,基本上没有任何影响。

肯定有不足的地方,欢迎讨论, 发出来就是为了学习。

原帖地址