欢迎您访问365答案网,请分享给你的朋友!
生活常识 学习资料

DataX同步Hive数据丢失,源码修复

时间:2023-04-22
文章目录

DataX简介DataX 商业版本DataX的特点DataX同步Hive数据丢失DataX的Hive数据源HdfsReader插件 DataX简介

DataX 是阿里云 DataWorks数据集成 的开源版本,在阿里巴巴集团内被广泛使用的离线数据同步工具/平台。DataX 实现了包括 MySQL、Oracle、Oceanbase、SqlServer、Postgre、HDFS、Hive、ADS、Hbase、TableStore(OTS)、MaxCompute(ODPS)、Hologres、DRDS 等各种异构数据源之间高效的数据同步功能。

DataX 商业版本

阿里云DataWorks数据集成是DataX团队在阿里云上的商业化产品,致力于提供复杂网络环境下、丰富的异构数据源之间高速稳定的数据移动能力,以及繁杂业务背景下的数据同步解决方案。目前已经支持云上近3000家客户,单日同步数据超过3万亿条。DataWorks数据集成目前支持离线50+种数据源,可以进行整库迁移、批量上云、增量同步、分库分表等各类同步解决方案。2020年更新实时同步能力,2020年更新实时同步能力,支持10+种数据源的读写任意组合。提供MySQL,Oracle等多种数据源到阿里云MaxCompute,Hologres等大数据引擎的一键全增量同步解决方案。

商业版本参见: https://www.aliyun.com/product/bigdata/ide

DataX的特点

DataX本身作为数据同步框架,将不同数据源的同步抽象为从源头数据源读取数据的Reader插件,以及向目标端写入数据的Writer插件,理论上DataX框架可以支持任意数据源类型的数据同步工作。同时DataX插件体系作为一套生态系统, 每接入一套新数据源该新加入的数据源即可实现和现有的数据源互通。

DataX同步Hive数据丢失

使用Datax进行两个集群间的数据同步,在读取HDFS大文件数据时,存在出现数据丢失问题。从上文我们知道DataX的数据同步原理,就是将不同数据源的同步抽象为从源头数据源读取数据的Reader插件,以及向目标端写入数据的Writer插件。为了适配各种异构的数据存储介质,DataX源码在设计的时候针对不同的数据源编写了相应的Reader插件和Writer插件。既然问题是在数据源读取就存在数据丢失的问题,我们不妨看看DataX得源码实现。

DataX的Hive数据源HdfsReader插件

HdfsReader实现了从Hadoop分布式文件系统Hdfs中读取文件数据并转为DataX协议的功能。textfile是Hive建表时默认使用的存储格式,数据不做压缩,本质上textfile就是以文本的形式将数据存放在hdfs中,对于DataX而言,HdfsReader实现上类比TxtFileReader,有诸多相似之处。orcfile,它的全名是Optimized Row Columnar file,是对RCFile做了优化。据官方文档介绍,这种文件格式可以提供一种高效的方法来存储Hive数据。HdfsReader利用Hive提供的OrcSerde类,读取解析orcfile文件的数据。目前HdfsReader支持的功能如下:

支持textfile、orcfile、rcfile、sequence file和csv格式的文件,且要求文件内容存放的是一张逻辑意义上的二维表。支持多种类型数据读取(使用String表示),支持列裁剪,支持列常量支持递归读取、支持正则表达式("*“和”?")。支持orcfile数据压缩,目前支持SNAPPY,ZLIB两种压缩方式。多个File可以支持并发读取。支持sequence file数据压缩,目前支持lzo压缩方式。csv类型支持压缩格式有:gzip、bz2、zip、lzo、lzo_deflate、snappy。目前插件中Hive版本为1.1.1,Hadoop版本为2.7.1(Apache[为适配JDK1.7],在Hadoop 2.5.0, Hadoop 2.6.0 和Hive 1.2.0测试环境中写入正常;其它版本需后期进一步测试;支持kerberos认证(注意:如果用户需要进行kerberos认证,那么用户使用的Hadoop集群版本需要和hdfsreader的Hadoop版本保持一致,如果高于hdfsreader的Hadoop版本,不保证kerberos认证有效)

源码暂时未实现的点:

单个File支持多线程并发读取,这里涉及到单个File内部切分算法。二期考虑支持。目前还不支持hdfs HA;

HdfsReader核心实现DFSUtil源码读取orc格式的文件方法 :

public void orcFileStartRead(String sourceOrcFilePath, Configuration readerSliceConfig, RecordSender recordSender, TaskPluginCollector taskPluginCollector) { LOG.info(String.format("Start Read orcfile [%s].", sourceOrcFilePath)); List column = UnstructuredStorageReaderUtil .getListColumnEntry(readerSliceConfig, com.alibaba.datax.plugin.unstructuredstorage.reader.Key.COLUMN); String nullFormat = readerSliceConfig.getString(com.alibaba.datax.plugin.unstructuredstorage.reader.Key.NULL_FORMAT); StringBuilder allColumns = new StringBuilder(); StringBuilder allColumnTypes = new StringBuilder(); boolean isReadAllColumns = false; int columnIndexMax = -1; // 判断是否读取所有列 if (null == column || column.size() == 0) { int allColumnsCount = getAllColumnsCount(sourceOrcFilePath); columnIndexMax = allColumnsCount - 1; isReadAllColumns = true; } else { columnIndexMax = getMaxIndex(column); } for (int i = 0; i <= columnIndexMax; i++) { allColumns.append("col"); allColumnTypes.append("string"); if (i != columnIndexMax) { allColumns.append(","); allColumnTypes.append(":"); } } if (columnIndexMax >= 0) { JobConf conf = new JobConf(hadoopConf); Path orcFilePath = new Path(sourceOrcFilePath); Properties p = new Properties(); p.setProperty("columns", allColumns.toString()); p.setProperty("columns.types", allColumnTypes.toString()); try { OrcSerde serde = new OrcSerde(); serde.initialize(conf, p); StructObjectInspector inspector = (StructObjectInspector) serde.getObjectInspector(); InputFormat<?, ?> in = new OrcInputFormat(); FileInputFormat.setInputPaths(conf, orcFilePath.toString()); //If the network disconnected, will retry 45 times, each time the retry interval for 20 seconds //Each file as a split //TODO multy threads InputSplit[] splits = in.getSplits(conf, 1); RecordReader reader = in.getRecordReader(splits[0], conf, Reporter.NULL); Object key = reader.createKey(); Object value = reader.createvalue(); // 获取列信息 List<? extends StructField> fields = inspector.getAllStructFieldRefs(); List recordFields; while (reader.next(key, value)) { recordFields = new ArrayList(); for (int i = 0; i <= columnIndexMax; i++) { Object field = inspector.getStructFieldData(value, fields.get(i)); recordFields.add(field); } transportOneRecord(column, recordFields, recordSender, taskPluginCollector, isReadAllColumns, nullFormat); } reader.close(); } catch (Exception e) { String message = String.format("从orcfile文件路径[%s]中读取数据发生异常,请联系系统管理员。" , sourceOrcFilePath); LOG.error(message); throw DataXException.asDataXException(HdfsReaderErrorCode.READ_FILE_ERROR, message); } } else { String message = String.format("请确认您所读取的列配置正确!columnIndexMax 小于0,column:%s", JSON.toJSONString(column)); throw DataXException.asDataXException(HdfsReaderErrorCode.BAD_CONFIG_VALUE, message); } }

对于Hdfs大文件在读取数据的时候会对大文件进行分片/区块的读取,正如上述代码片段:

//Each file as a split //TODO multy threads InputSplit[] splits = in.getSplits(conf, 1); RecordReader reader = in.getRecordReader(splits[0], conf, Reporter.NULL);

从代码实现可以很容易发现在读取文件的时候只取了分片后的第一个区块的数据,也尚未开启多线程消费多分片的数据,这样就会导致在大文件读取时,存在多分片情况丢失数据的现象。

问题发现后对上述代码进行完善,完善后的代码如下:

public void orcFileStartRead(String sourceOrcFilePath, Configuration readerSliceConfig, RecordSender recordSender, TaskPluginCollector taskPluginCollector) { LOG.info(String.format("Start Read orcfile [%s].", sourceOrcFilePath)); List column = UnstructuredStorageReaderUtil .getListColumnEntry(readerSliceConfig, com.alibaba.datax.plugin.unstructuredstorage.reader.Key.COLUMN); String nullFormat = readerSliceConfig.getString(com.alibaba.datax.plugin.unstructuredstorage.reader.Key.NULL_FORMAT); StringBuilder allColumns = new StringBuilder(); StringBuilder allColumnTypes = new StringBuilder(); boolean isReadAllColumns = false; int columnIndexMax = -1; // 判断是否读取所有列 if (null == column || column.size() == 0) { int allColumnsCount = getAllColumnsCount(sourceOrcFilePath); columnIndexMax = allColumnsCount - 1; isReadAllColumns = true; } else { columnIndexMax = getMaxIndex(column); } for (int i = 0; i <= columnIndexMax; i++) { allColumns.append("col"); allColumnTypes.append("string"); if (i != columnIndexMax) { allColumns.append(","); allColumnTypes.append(":"); } } if (columnIndexMax >= 0) { JobConf conf = new JobConf(hadoopConf); Path orcFilePath = new Path(sourceOrcFilePath); Properties p = new Properties(); p.setProperty("columns", allColumns.toString()); p.setProperty("columns.types", allColumnTypes.toString()); try { OrcSerde serde = new OrcSerde(); serde.initialize(conf, p); StructObjectInspector inspector = (StructObjectInspector) serde.getObjectInspector(); InputFormat<?, ?> in = new OrcInputFormat(); FileInputFormat.setInputPaths(conf, orcFilePath.toString()); //If the network disconnected, will retry 45 times, each time the retry interval for 20 seconds //Each file as a split //TODO multy threads InputSplit[] splits = in.getSplits(conf, 1); RecordReader reader = in.getRecordReader(splits[0], conf, Reporter.NULL); Object key = reader.createKey(); Object value = reader.createvalue(); // 获取列信息 List<? extends StructField> fields = inspector.getAllStructFieldRefs(); List recordFields; while (reader.next(key, value)) { recordFields = new ArrayList(); for (int i = 0; i <= columnIndexMax; i++) { Object field = inspector.getStructFieldData(value, fields.get(i)); recordFields.add(field); } transportOneRecord(column, recordFields, recordSender, taskPluginCollector, isReadAllColumns, nullFormat); } reader.close(); } catch (Exception e) { String message = String.format("从orcfile文件路径[%s]中读取数据发生异常,请联系系统管理员。" , sourceOrcFilePath); LOG.error(message); throw DataXException.asDataXException(HdfsReaderErrorCode.READ_FILE_ERROR, message); } } else { String message = String.format("请确认您所读取的列配置正确!columnIndexMax 小于0,column:%s", JSON.toJSONString(column)); throw DataXException.asDataXException(HdfsReaderErrorCode.BAD_CONFIG_VALUE, message); } }

在对原始DataX源码进行调整后,重新对HdfsReader工程模块进行打jar,并覆盖DataX部署的libs目录下的HdfsReader的jar,重启DataX应用后问题得到解决。

Copyright © 2016-2020 www.365daan.com All Rights Reserved. 365答案网 版权所有 备案号:

部分内容来自互联网,版权归原作者所有,如有冒犯请联系我们,我们将在三个工作时内妥善处理。