基于 Kubesphere 的 Nebula Graph 多云架构管理实践

ywz888
发布于 2022-10-10 16:29
浏览
0收藏

图数据库是一种使用图结构进行语义查询的数据库,它使用节点、边和属性来表示和存储数据。图数据库的应用领域非常广泛,在反应事物之间联系的计算都可以使用图数据库来解决,常用的领域如社交领域里的好友推荐、金融领域里的风控管理、零售领域里的商品实时推荐等等。


Nebula Graph 简介与架构


Nebula Graph 是一个高性能、可线性扩展、开源的分布式图数据库,它采用存储、计算分离的架构,计算层和存储层可以根据各自的情况弹性扩容、缩容,这就意味着 Nebula Graph 可以最大化利用云原生技术实现弹性扩展、成本控制,能够容纳千亿个顶点和万亿条边,并提供毫秒级查询延时的图数据库解决方案。

基于 Kubesphere 的 Nebula Graph 多云架构管理实践-鸿蒙开发者社区

上图所示为 Nebula Graph 的架构,一个 Nebula 集群包含三个核心服务,Graph Service、Meta Service 和 Storage Service。每个服务由若干个副本组成,这些副本会根据调度策略均匀地分布在部署节点上。

Graph Service 对应的进程是 nebula-graphd,它由无状态无关联的计算节点组成,计算节点之间互不通信。Graph Service 的主要功能,是解析客户端发送 nGQL 文本,通过词法解析 Lexer 和语法解析 Parser 生成执行计划,并通过优化后将执行计划交由执行引擎,执行引擎通过 Meta Service 获取图点和边的 schema,并通过存储引擎层获取点和边的数据。

Meta Service 对应的进程是 nebula-metad ,它基于 Raft 协议实现分布式集群,leader 由集群中所有 Meta Service 节点选出,然后对外提供服务,followers 处于待命状态并从 leader 复制更新的数据。一旦 leader 节点 down 掉,会再选举其中一个 follower 成为新的 leader。Meta Service 不仅负责存储和提供图数据的 meta 信息,如 Space、Schema、Partition、Tag 和 Edge 的属性的各字段的类型等,还同时负责指挥数据迁移及 leader 的变更等运维操作。

Storage Service 对应的进程是 nebula-storaged,采用 shared-nothing 的分布式架构设计,每个存储节点都有多个本地 KV 存储实例作为物理存储其核心,Nebula 采用 Raft 来保证这些KV 存储之间的一致性。目前支持的主要存储引擎为 RocksDB 和 HBase。

Nebula Graph 提供 C++、Java、Golang、Python、Rust 等多种语言的客户端,与服务器之间的通信方式为 RPC,采用的通信协议为 Facebook-Thrift。用户也可通过 nebula-console、nebula-studio 实现对 Nebula Graph 操作。


多云架构挑战


Nebula Graph 的云产品定位是 DBaaS (Database-as-a-Service)平台,因此肯定要借助云原生技术来达成这一目标。到底该如何落地呢?首先要明确一点,任何技术都不是银弹,只有合适的场景使用合适的技术。虽然我们拥有很多可供挑选的开源产品来搭建这个平台,但是最终落实到交付给用户的产品上,还有很多挑战。

这里我列举了三个方面的挑战:

业务挑战

多个云厂商的资源适配,这里需要实现统一的资源抽象模型,同时还要做好国际化,国际化需要考虑地域文化差异、当地法律法规差异、用户消费习惯差异等多个要素,这些要素决定了需要在设计模式上去迎合当地用户的使用习惯,从而提升用户体验。

性能挑战

在大多数情况下,通过同一云厂商网络传输的数据移动速度比必须通过全球互联网从一个云厂商传输到另一个云厂商的数据移动速度要快得多。这意味着跨云之间的网络连接可能成为多云体系结构的严重性能瓶颈。数据孤岛很难打破,因为企业无法迁移格式不同且驻留在不同技术中的数据,缺乏可迁移性会带给多云战略带来潜在的风险。在单个云厂商中,使用云厂商的原生自动扩展工具配置工作负载的自动扩展非常容易,当用户的工作负载跨越多个云厂商时,自动扩展就会变得棘手。

运维挑战

大规模的 Kubernetes 集群运维是非常有挑战的事情,满足业务的快速发展和用户需求也是对团队极大的考验。首先是做到集群的管理标准化、可视化,其次全部的运维操作流程化,这需要有一个深入了解运维痛点的管理平台,可以解决我们大部分的运维需求。数据安全上需要考虑在没有适当的治理和安全控制的情况下,将数据从一个平台迁移到另一个平台(或从一个区域迁移到另一个区域)会带来数据安全风险。


DBaaS(Database-as-a-Service)


云原生技术简单概括就是为用户提供一种简易的、敏捷的、可弹性扩展的、可复制的方式,最大化使用云上资源的能力。云原生技术不断演进也是为了用户更好的专注于业务开发。大家可以看到这个金字塔,从 IaaS 到最上面的云原生应用层,产品形态越来越灵活,计算单元的粒度越来越细,模块化程度、自动化运维程度、弹性效率、故障恢复能力都是越来越高,这说明每往上走一层,应用与底层物理基础设施解耦就越彻底,用户的关注点不再是从硬件服务器到业务实现整个链条,而是仅需要关注于当下业务本身。

基于 Kubesphere 的 Nebula Graph 多云架构管理实践-鸿蒙开发者社区

PaaS 平台的容器编排系统是 Kubernetes,自然而然地就能想到基于 Kubernetes 构建这套平台,Kubernetes 提供了容器运行时接口,你可以选择任意一种实现这套接口的运行时来构建应用运行的基础环境。因此,利用好 Kubernetes 提供的能力,就能达到事半功倍的效果。Kubernetes 提供了从命令行终端 kubectl 到容器运行依赖的存储、网络、计算的多个扩展点,用户可以根据业务场景实现一些自定义扩展插件对接到 kubernetes 平台,而不用担心侵入性。

用户视图

Nebula Cloud 目前为用户提供两种访问方式,一种是通过浏览器进入 Studio 操作窗口,在数据导入后可以做图探索,nGQL 语句执行等操作,另一种是通过厂商提供的 private-link 打通用户到 Nebula Cloud 之间的网络连接,用户可以通过 nebula-console 或者 nebula client 直连到 Nebula 实例。

基于 Kubesphere 的 Nebula Graph 多云架构管理实践-鸿蒙开发者社区

Nebula Cloud 架构

从业务架构上看,Nebula Cloud 可以分为三层,最底层是资源适配层,主要负责提供资源层面上的适配,提供对多云厂商、多地域集群、同构或异构资源池的抽象描述。再往上是业务层与资源层,业务层涵盖基础服务、实例管理、租户管理、计费管理、数据导入管理等业务模块;资源层负责提供 Nebula 集群的运行环境,在调度策略下提供最佳的资源配置。最上层是网关层,对外提供访问服务。

基于 Kubesphere 的 Nebula Graph 多云架构管理实践-鸿蒙开发者社区

Nebula Cloud 内部流程

这里以 AWS 为例策略地描述一个 Nebula 集群的创建过程。用户创建实例请求提交后,nebula-platform 服务根据输入的厂商、地域、规格等参数信息做资源调度,比如资源池、负载均衡、安全策略等配置,然后通过 nebula-operator 的 api 完成实例的创建,最后配置 ALB 规则,为用户提供访问实例的入口。

基于 Kubesphere 的 Nebula Graph 多云架构管理实践-鸿蒙开发者社区

Nebula-Operator

在 Kubernetes 中,定义一个新对象可以有两种方式,一个是 CustomResourceDefinition, 一个是 Aggregation ApiServer,其中 CRD 是目前主流的做法,nebula-operator 就是 CRD 来实现的。

CRD+Custom Controller 就是典型的 Operator 模式了。通过向 Kubernetes 系统注册好的 CRD,我们可以使用 controller 来观察 Nebula 集群以及与它相关联的资源对象状态,然后按照写的协调逻辑来驱动 Nebula 集群向期望状态转移。这么实现可以把 Nebula 相关的管理工作都沉淀到 Operator 里,用户使用 Nebula Graph 的复杂度降低,可以轻松完成弹性扩缩容、滚动升级等核心操作。我们基于 kubernetes 的 RESTful API 生成了一套管理 Nebula 集群的 API,这样用户可以拿着 API 就能实现对接自己的 PaaS 平台,搭建自己的图计算平台。

nebula-operator 目前的功能还在不断完善中,实例的滚动升级需要 Nebula 提供底层支持,预计今年会支持上。

基于 Kubesphere 的 Nebula Graph 多云架构管理实践-鸿蒙开发者社区



文章转载自公众号:Nebula Graph Community


分类
标签
已于2022-10-10 16:29:04修改
收藏
回复
举报
回复
    相关推荐