为在线数据库构建基于 Kudu 的实时数据同步

简述 Kudu 是 Cloudera 开源的新型列式存储系统,是 Apache Hadoop 生态圈的成员之一。它专门为了对快速变化的数据进行快速的分析,填补了以往Hadoop 存储层的空缺。
本篇文章将会介绍几种数据数据同步到 Kudu 的方案选择,然后从功能和使用角度介绍 CloudCanal 如何帮助我们解决数据实时同步到 Kudu。
几种方案 Kudu 是一个存储层组建,若要同步数据到 Kudu 的可以有三种选择

  • (基于RDB)选用类似 DataX 这类开源中间件,同时 Kudu 搭建上层 SQL 引擎。可选的 SQL 引擎有:Hive、Impala
  • (基于MQ)选用 Kafka 生态,基于 Kafka + Flume + Kudu 实现数据同步。
  • (基于编码)开发对应的数据迁移程序,直接将数据写入 Kudu 存储。
如何选择? 基于RDB方案
  • 需要 Kudu 上层有一个 SQL 引擎。在官方文档上提到了两种使用Kudu 的方式
    • Hive 是基于 MapReduce 架构、Impala 是基于 MPP 架构
  • 单纯的数据写入并不需要复杂的计算逻辑,选择 MPP 架构显然更适合一些。
    • 这种情况下推荐 Impala + Kudu + DataX
基于MQ方案
  • 比较适合源端数据变化有多个不同的消费者,数据同步仅仅是其中一条链路。
基于编码方案
  • 比较适合在数据同步过程中需要对数据进行加工。
同步的技术点 建表
  • 对于 Kudu 上的建表需要通过 kudu-client 来进行,例如:
List columns = new ArrayList(2); columns.add(new ColumnSchema.ColumnSchemaBuilder("key", Type.INT32).key(true).build()); columns.add(new ColumnSchema.ColumnSchemaBuilder("value", Type.STRING).build()); List rangeKeys = new ArrayList<>(); rangeKeys.add("key"); Schema schema = new Schema(columns); client.createTable(tableName, schema, new CreateTableOptions().setRangePartitionColumns(rangeKeys));

  • Kudu 由于存储引擎限制,每张表必须要指定 Partition Column。
  • 被设置为 Partition 的列不允许 update,如若修改 Partition Column 列的值。需要删除整行数据重新插入。
【为在线数据库构建基于 Kudu 的实时数据同步】数据写入
  • Kudu 数据写入 Kudu 支持 Insert、Update、Delete、Upsert 四种操作
KuduTable table = client.openTable(tableName); KuduSession session = client.newSession(); session.setTimeoutMillis(60000); for (int i = 0; i < 3; i++) { Insert insert = table.newInsert(); PartialRow row = insert.getRow(); row.addInt(0, i); row.addString(1, "value " + i); session.apply(insert); } session.flush(); session.close();

数据类型
  • Kudu 1.6 之前,不支持 Decimal。因此源端数据类型如果是浮点数只可以选择:float、double、int、string 来承载
  • Kudu 1.15 开始,提供了 varchar 类型可以与 数据库的 varchar 相互对应。在此之前应当选择 string 类型。
基于 CloudCanal 快速实现数据同步 前面介绍的三种方式中 RDB方案要求增加配置 SQL 引擎、MQ 方案 则要求增加 Kafka 和 Flume。它们的数据同步链路都较长一旦出现问题,比较不容易排查原因所在。CloudCanal 是采用了第三种方式。
  • 从源端直接订阅数据变更
  • 通过 kudu-client 直接将数据写入到 Kudu 存储引擎
  • 整个过程无需 MQ 或 SQL 引擎的支持。
对比前面两种方式具有下列几个优势
  • 资源开销小
  • 链路简单高效
  • 产品化操作便捷
举个"栗子" 准备 CLOUDCANAL
  • SAAS 版参考 自建机器客户端安装 文章
  • 社区版参考文章 docker安装 文章
添加数据源
  • 登录 CloudCanal 平台
  • 数据源管理 -> 添加数据源
  • 选择 自建数据源 ,并填写相关数据库信息,其中 网络地址 请按提示带上端口号
    为在线数据库构建基于 Kudu 的实时数据同步
    文章图片
  • 这里需要有两点提示
    • kudu-client 默认访问的是 7051 端口,并非提供 Web 界面的 8051
    • 如果 Kudu 是集群化部署,那么在配置网络地址时需要填写集群 ip:port 列表。逗号间隔。
同步任务
  • 任务管理管理 -> 创建任务
    为在线数据库构建基于 Kudu 的实时数据同步
    文章图片
  • 在创建任务的时候,默认高级选项中会要求至少 3副本。可以根据 Kudu 集群情况来修改对应配置。
  • 任务类型环节选择 数据同步
    为在线数据库构建基于 Kudu 的实时数据同步
    文章图片
  • 在表选择环节可以选择要同步的源端表以及同步的动作
    为在线数据库构建基于 Kudu 的实时数据同步
    文章图片
  • 最后到确认环节创建任务即可。
    为在线数据库构建基于 Kudu 的实时数据同步
    文章图片
  • 在结构迁移任务跑完之后,就可以看到 Kudu 控制台上已经把对应的 Kudu 表全部创建完毕
    为在线数据库构建基于 Kudu 的实时数据同步
    文章图片
在最后举例使用 Impala 来查询位于 Kudu 中的数据,如下是建表语句:
CREATE EXTERNAL TABLE `canal_test_case_column_default` STORED AS KUDU TBLPROPERTIES( 'kudu.table_name' = 'my-j52hri3880d6dka.canal_test_case.column_default', 'kudu.master_addresses' = '192.168.0.254:7051')

  • 任务在进入增量同步之后尝试对源端就会发现数据已经实时的进入到 Kudu 啦,此时通过 SQL 查询 Impala 上的 Kudu 表就可以看到数据
    为在线数据库构建基于 Kudu 的实时数据同步
    文章图片
能力和限制
  • 支持 MySQL、PostgreSQL、Oracle 作为源端到 Kudu 的同步
  • 支持主键变更同步,转换为 Kudu 删除在插入
  • 对端 Kudu 要求 1.6 版本
  • 不支持源端 无主键表
  • 不支持 DDL 增量同步
总结 本文简单介绍了几种将数据同步到 Kudu 的方式,以及基于 CloudCanal 是如何实现实时同步数据到 Kudu。各位小伙伴,如果觉得还不错,请点赞、评论加转发吧。
更多精彩
  • 5分钟搞定 MySQL 到 ElasticSearch 迁移同步-CloudCanal 实战
  • 5分钟搞定 MySQL 到 MySQL 异构在线数据迁移同步-CloudCanal 实战
  • 5分钟搞定 MySQL 到 ClickHouse 实时数据同步-CloudCanal 实战
  • MySQL 到 ElasticSearch 实时同步构建数据检索服务的选型与思考
  • 构建基于Kafka中转的混合云在线数据生态-cloudcanal实战
  • 5分钟搞定 MySQL 到 TiDB 的数据同步 - CloudCanal实战
社区快讯
  • 我们创建 CloudCanal 微信粉丝群啦,在里面,你可以得到最新版本发布信息和资源链接,你能看到其他用户一手评测、使用情况,你更能得到热情的问题解答,当然你还可以给我们提需求和问题。快快加入吧。
    • 扫描下方二维码,添加我们小助手微信拉您进群,接头语(“CloudCanal yyds”)
为在线数据库构建基于 Kudu 的实时数据同步
文章图片

加入CloudCanal粉丝群掌握一手消息和获取更多福利,请添加我们小助手微信:suhuayue001
CloudCanal-免费好用的企业级数据同步工具,欢迎品鉴。
了解更多产品可以查看官方网站: http://www.clougence.com
CloudCanal社区:https://www.askcug.com/

    推荐阅读