Nebula Graph 的 Ansible 实践
在 Nebula Graph 的日常测试中,我们会经常在服务器上部署 Nebula Graph。为了提高效率,我们需要一种工具,能帮我们做到快速部署,主要的需求:
- 可以使用非 root 账户部署 Nebula Graph,这样我们可以针对这个用户设置 cgroup 做资源限制。
- 可以在操作机上更改配置文件,然后分发到部署的集群上,方便我们做各种调参的测试。
- 可以使用脚本调用,方便以后我们继承在测试的平台或工具上。
工具选择上,早期有 Fabric 和 Puppet,比较新的工具有 Ansible 和 SaltStack。
Ansible 在 GitHub 上有 40K+ star, 而且在 2015 年被 Red Hat 收购,社区比较活跃。很多开源项目都提供了 Ansible 的部署方式,比如 Kubernetes 中的 kubespray 和 TiDB 中的 tidb-ansible。
综合下来,我们使用 Ansible 来部署 Nebula Graph。
Ansible 介绍
>>>>
特点
Ansible 是开源的自动化部署工具(Ansible Tower 是商业的)。具有以下的几个特点:
- 默认协议是基于 SSH,相比于 SaltStack 不需要额外部署 agent。
- 使用 playbook, role, module 来定义部署过程,比较灵活。
- 操作行为幂等。
- 模块化开发,模块比较丰富。
优缺点比较明显:
- 使用 SSH 协议,优点是大多数机器默认只要有账号密码就可以通过 Ansible 完成部署,而缺点性能上会差一些。
- 使用 playbook 来定义部署过程,Python 的 Jinja2 作为模板渲染引擎,对于熟悉的人来说会比较方便,而对于没有使用过的人,会增加学习成本。
综上,适用于小批量机器的批量部署,不需要关心额外部署 agent 的场景,和我们的需求比较匹配。
>>>>
部署逻辑
通常为了离线部署,可以把机器分为 3 种角色。
- Ansible 执行机:运行 Ansible 的机器,需要能通过 SSH 连到所有机器。
- 有外网的资源机:运行需要连接外网的任务,比如下载 RPM 包。
- 服务器:即运行服务的服务器,可以网络隔离,通过执行机来部署。
>>>>
任务逻辑
Ansible 中,主要有三种层次的任务:
- Module
- Role
- Playbook
Module 分为 CoreModule 和 CustomerModule,是 Ansible 任务的基本单元。
在运行任务的时候,首先 Ansible 会根据 module 的代码,将参数代入,生成一个新的 Python 文件,通过 SSH 放到远程的 tmp 文件夹,然后通过 SSH 远程执行 Python 将输出结果返回,最后把远程目录删除。
可以看到有这样的日志输出,AnsiballZ_ping.py 就是根据 module 生成的 Python 文件,可以登录到那台机器,执行 Python 语句看一下结果。
返回了运行 Python 文件的标准输出,然后 Ansible 再对返回的结果做额外处理。
Role 是串联 module 的一系列任务,可以通过 register 来传递上下文参数。
典型例子:
- 创建目录。
- 如果创建目录成功,继续安装,否则退出整个部署工程。
Playbook 是组织部署机器和 role 之间的关联。
通过在 inventory 对不同机器进行分组,对不同分组使用不同的 role 来部署,完成非常灵活的安装部署任务。当 playbook 定义好之后,不同的环境,只要变更 inventory 中的机器配置,就可以完成一样的部署过程。
>>>>
模块定制
自定义 filter
Ansible 使用 Jinja2 作为模板渲染引擎,可以用 Jinja2 自带的 filter,比如:
有时候,我们会需要自定义的 filter 来操作变量,典型的场景就是 nebula-metad 的地址--meta_server_addrs 。
- 当只有 1 个 metad 的时候,格式是 metad1:9559;
- 当有 3 个 metad 的时候,格式是 metad1:9559,metad2:9559,metad3:9559;
在 ansible playbook 的工程下,新建 filter_plugins 目录,创建一个 map_fomat.py Python文件,文件内容:
{{groups['metad']|map('map_format', '%s:9559')|join(',') }} 即为我们想要的值。
自定义 module
自定义 module 需要符合 Ansible 框架的格式,包括获取参数,标准返回,错误返回等。写好的自定义 module,需要在 ansible.cfg 中配置 ANSIBLE_LIBRARY ,让 ansible 能够获取到。具体参考官网:https://ansible-docs.readthedocs.io/zh/stable-2.0/rst/developing_modules.html
Nebula Graph 的 Ansible 实践
因为 Nebula Graph 本身启动并不复杂,使用 Ansible 来完成 Nebula Graph 的部署十分简单。
- 下载 RPM 包。
- 复制 RPM 包到部署机,解压后,放到目的文件夹。
- 更新配置文件。
- 通过 shell 启动。
>>>>
使用通用的 role
Nebula Graph 有三个组件,graphd、metad、storaged,三个组件的命名和启动使用一样的格式,可以使用通用的 role,graphd、metad、storaged 分别引用通用的 role。
一方面更容易维护,另一方面部署的服务更有细粒度。比如 A B C 机器部署 storaged, 只有 C 机器部署 graphd,那 A B 机器上,就不会有 graphd 的配置文件。
在 playbook 中,graphd 的机器组来运行 graphd 的 role,如果 A B 不在 graphd 的机器组,就不会将 graphd 的配置文件上传。
这样部署后,就不能使用 Nebula Graph 的 nebula.service start all 来全部启动,因为有的机器上会没有 nebula-graphd.conf 的配置文件。类似的,可以在 playbook 中,通过参数,来指定不同的机器组,传不同的参数。
这样会相当于多次 ssh 去执行启动脚本,虽然执行效率没有比 更好,但是服务的启停会更为灵活。
使用通用的 role
>>>>
使用 vars_prompt 结束 playbook
当只想更新二进制,不想删除数据目录的时候,可以在 remove 的 playbook 中,添加 vars_prompt 二次确认,如果二次确认了,才会删除数据,否则会退出 playbook。
而在 role 里,会校验二次确认的值:
效果如图,删除时可以二次确认,如果不为 yes,就会取消执行这次的 playbook,这样可以只删除二进制,而不删除 nebula 集群的数据。
文章转载自公众号:Nebula Graph Community