社区 | Neo4j 导入 Nebula Graph 的实践总结
本文由社区用户 fengsen-neu 贡献,主要介绍如何通过官方 ETL 工具 Exchange 将业务线上数据从 Neo4j 直接导入到 Nebula Graph 以及在导入过程中遇到的问题和优化方法。
01 背景
随着业务数据量不断增长,业务对图数据库在线数据实时更新写入和查询的效率要求也不断增加。Neo4j 存在明显性能不足,Neo4j 社区开源版本只支持单机部署,扩展能力存在比较大的问题,无法满足读写性能的线性扩展以及读写分离的业务需求,并且开源版本 Neo4j 对点和边的总数据量也有限制;而 Neo4j 企业版因果集群也存在单机主节点 Cypher 实时写入的性能瓶颈。
相比于 Neo4j,Nebula Graph 最大的特色便是采用 shared-nothing 分布式的架构,无单主写入瓶颈问题,读写支持线性扩展,擅长处理千亿节点、万亿条边的超大规模数据集。
本文主要介绍如何通过官方 ETL 工具 Exchange🔗 将业务线上数据从 Neo4j 直接导入到 Nebula Graph 以及在导入过程中遇到的问题和优化方法。其中绝大部分问题都已经通过论坛发帖的方式得到社区的支持和解决,本文会结合问题进行逐一列举。
02 部署信息
系统环境:
- CPU name:Intel® Xeon® Silver 4114 CPU @ 2.20GHz
- CPU Cores:40
- Memory Size:376 GB
- Disk:HDD
- System:CentOS Linux release 7.4.1708 (Core)
软件环境:
- Neo4j:3.4 版本,五节点因果集群
- Nebula Graph:
- 版本:nebula-graph v1.1.0 源码🔗 编译安装,
- 部署:单台服务器部署三节点 Nebula Graph 集群。
- Exchange:nebula-java v1.1.0🔗 源码编译 jar 包
- 数仓环境:
- hadoop-2.7.4
- spark-2.3.1
注意:单台机器部署 Nebula 多节点的端口分配:每个 storage 还会将用户配置的端口号 + 1的端口作为内部使用。请参考论坛帖子 nebula从neo4j导入数据出现Get UUID Failed错误🔗 。
03 全量 & 增量数据导入
3.1 全量导入
根据 Neo4j 点和边的属性信息创建 Nebula Graph 的 Tag 和 Edge 结构,这里需要注意一点,业务可能会根据不同需求只在部分点和边上增加 Neo4j 点和边的属性信息,其他点和边对应的属性为 NULL ,所以需要先跟业务明确一下点和边的全部属性信息,避免遗漏属性。Nebula Graph 的 Schema 信息类似 MySQL,支持 Create 和 Alter 添加属性,并且所有的 Tag 和 Edge 的元数据信息是一致的。
1、Nebula Graph 创建 Tag 和 Edge
2、Exchange 导入配置文件
- Exchange 配置目前不支持 bolt+routing 的方式连接neo4j,如果是因果集群,可以选择一个从节点进行 bolt 方式直连读取数据,减少集群压力。
- 我们业务的 Neo4j 数据点和边的 vid 是 string 类型,Nebula v1.x 版本还不支持 string 直接当做 vid(v2.0支持),考虑到官方文档中的描述:“当点数量到达十亿级别时,用 hash 函数生成 vid 有一定的冲突概率。因此 Nebula Graph 提供 UUID 函数来避免大量点时的 vid 冲突。” 选择了 uuid() 作为转化函数,但是导入效率要比 hash 低,而且 uuid() 在未来版本可能存在兼容问题。
- partition: 是指 Exchange 从 Neo4j 拉取数据的分页个数。
- batch: 是指批量插入 Nebula 的 batch 大小。
3、执行导入命令
4、查看导入 Nebula Graph 的数据量
注意:Nebula 1.x 版本目前还只能用 db_dump 统计,2.0 会支持 nGQL 命令的方式统计数量。
3.2 增量导入
增量数据导入主要是通过 Neo4j 内部点和边的自增 id() 进行切割,在导入配置文件 exec 项执行 Neo4j Cypher 语句时增加 id() 范围限制,但前提是需要业务停掉删数据操作,因为增量导入时,如果之前的数据被删除后 Neo4j 会复用 id(),这会导致复用 id() 的增量数据导入时查询不到造成数据丢失。当然业务如果有条件支持 Neo4j Nebula 双写的话,增量导入就不会出现这种问题。
请参考论坛帖子 neo4j到nebula如何做增量导入🔗。
3.3 导入问题及解决
使用 Exchange 导入过程中遇到两个问题,及时的得到官方 @nicole 的支持和解决,具体请参考下面两个帖子:
- nebula从neo4j导入数据,部分属性带回车,拼insert报错,有什么好办法解决吗?🔗
- 使用Exchange 从neo4j导入nebula,label中有些顶点的属性值是null,导致导入失败🔗
问题 1:Exchange 不支持「换行回车」等特殊字符的转义。如下 string 数据中带有回车,在拼接 insert 语句插入时会因为换行导致插入失败。
PR:https://github.com/vesoft-inc/nebula-java/pull/203🔗 已经合入 exchange v1.0 分支
问题 2:Exchange 不支持属性为 NULL 的数据导入。前文 3.1 中提到,业务可能会根据不同需求为某些点和边增加属性,这时其他点和边属性则是 NULL ,这样在使用 Exchange 导入时会报错。
参考帖子 2 给出的修改建议解决:修改com.vesoft.nebula.tools.importer.processor.Processor#extraValue , 增加 NULL 类型的转化值。
04 导入效率优化
关于导入效率的优化,请参考下面两个帖子:
- 关于使用Exchange从neo4j导入nebula的性能问题 🔗
- 使用exchange并发 spark-submit –master “local[16]” 报错 🔗
优化 1:通过适当增加导入配置中的 partition 和 batch 值,提升导入效率。
优化 2:如果是 string 类型做 vid 的话,1.x 版本尽量使用 hash() 函数转化,2.0 版本会支持 string id 类型;如果是 int 类型做 vid 的话,可以直接使用,不用转化效率更高。
优化 3:官方建议 spark-submit 提交命令 master 配置改为 yarn-cluster ,若不使用 yarn,可配置成 spark://ip:port;我们是通过 spark-submit --master "local[16]" 的方式增加 spark 并发,导入效率比使用 "local" 提升 4 倍+,测试环境单机三节点 HDD 盘 IO 峰值能到 200-300 MB/s。但在指定 --master "local[16]" 并发导入时遇到 hadoop 缓存问题,采用增加 hdfs 配置 fs.hdfs.impl.disable.cache=true 后重启 hadoop 解决。具体请参考第二个帖子。
05 总结
使用 Exchange 从 Neo4j 导入 Nebula Graph 过程中遇到一些问题,通过积极与社区进行沟通得到了官方 @nicole 及其他小伙伴的快速响应和大力支持,这一点在 Neo4j 导入 Nebula Graph 的实践过程中起到了十分关键的作用,感谢社区的大力支持。期待支持 openCypher 的 Nebula Graph 2.0。
06 参考文献
- https://nebula-graph.com.cn/posts/how-to-import-data-from-neo4j-to-nebula-graph/ 🔗
- https://github.com/vesoft-inc/nebula-java/tree/v1.0 🔗
- https://docs.nebula-graph.com.cn/manual-CN/2.query-language/2.functions-and-operators/uuid/ 🔗
- http://arganzheng.life/hadoop-filesystem-closed-exception.html 🔗
文章转载自公众号:Nebula Graph Community