欢迎关注公众号“Tim在路上”
今天来闲谈下数据湖三剑客中的iceberg。
Iceberg项目2017年由Netflix发起, 它是在2018年被Netflix捐赠给Apache基金会的项目。在2021年Iceberg的作者Ryan Blue创建Tabular公司,发起以Apache Iceberg为核心构建一种新型数据平台。
Ryan Blue 认为我们不是齿轮——我们是工匠,Iceberg的哲学的核心是让人们快乐:**数据基础设施应该在没有令人不快的意外的情况下工作。
Iceberg最初的功能相比Delta或Hudi少一些,但是得益于底层架构接口设计的优雅通用,因此其较早的实现了Flink的读写,在国内也获得了不少的关注。今天就来谈下Iceberg的优势与原理。
首先我们回到Ryan Blue创建Iceberg的原因。起初是认识到数据的组织方式(表格式)是许多数据基础设施面临挫折和问题的共同原因——这些问题因Netflix运行在 S3上的云原生数据平台而加剧。
例如如果没有原子提交,对 Hive 表的每次更改都会冒着其他地方出现正确性错误的风险,因此自动化的修复问题也就是白日梦,很多维护工作留给了数据工程师,让人不快乐。
所以说在Iceberg创建初期,它最核心希望解决的是Hive数仓遇到的问题。

具体来说,主要包括下面这些问题:
1. 没有acid保证
由于Hive数仓只是文件系统上一系列文件的集合(单纯的采用目录方式进行管理),而数据读写只是对文件的直接操作,没有关系型数据库常有的事务概念和acid保证,所以会存在脏读等问题。
2. partition粒度的谓词下推
Hive的文件结构只能通过partition和bucket对需要扫描哪些文件进行过滤,无法精确到文件粒度。所以尽管parquet文件里保存了max和min值可以用于进一步的过滤(即谓词下推),但是Hive却无法使用。
3. 文件系统的list操作
Hive在确定了需要扫描的partition和bucket之后,对于bucket下有哪些文件需要使用文件系统的list操作,而这个操作是O(n)级别的,会随着文件数量的增加而变慢。特别是对于像s3这样的对象存储来说,一次list操作需要几百毫秒,每次只能取1000条记录,对性能的影响无法忽略。
4. query需要显式地指定partition
在 Hive 中,分区需要显示指定为表中的一个字段,并且要求在写入和读取时需要明确的指定写入和读取的分区。Iceberg将完全自行处理,并跳过不需要的分区和数据。在建表时用户可以指定分区,无需为快速查询添加额外的过滤,表布局可以随着数据或查询的变化而更新。

在上述例子中,Hive 表并不知道event_date 和event_time的对应关系,需要用户来跟踪。
而在 Iceberg 中将分区进行隐藏,由 Iceberg 来跟踪分区与列的对应关系。在建表时用户可以指定date(event_time) 作为分区, Iceberg 会保证正确的数据总是写入正确的分区,而且在查询时不需要手动指定分区列,Iceberg 会自动根据查询条件来进行分区裁剪。
上面讲了创建Iceberg最初想要解决的问题,下面我们说下Iceberg的定位是什么,以及它在数据湖架构中的位置。
Iceberg 的核心开发者Ryan Blue,将Iceberg定义为一种开放式的表格式为大数据分析,它的定位是在计算引擎之下,又在存储之上,将其称之为table format。
在大数据时代数据的存储格式早已经发生了翻天覆地的变化,从最初的txt file , 到后来的Sequence file , rcfile以及目前的parquet、orc 和 avro 等数据存储文件。数据的存储有了更好的性能、更高的压缩比,但是对于数据的组织方式依然没有太大的变化。目前Hive对于数据组织的方式任然是采用文件目录的方式进行组织方式,这种组织方式面临上一节中遇到的问题。
Apache Iceberg is an open table format for huge analytic datasets. Iceberg adds tables to Presto and Spark that use a high-performance format that works just like a SQL table.

从上图可以看出,Iceberg是在HDFS或S3存储引擎上的又一层,用于管理在存储引擎中的Parquet、ORC和avro等压缩的大数据文件,使这些文件更便于管理维护,同时为其构造出相应的元数据文件。其上层是对接用于计算的Spark、Presto和Flink等计算引擎,并为其提供灵活的可插拔性。
那么Iceberg是如何组织数据与元数据的呢?

在数据存储层面上,Iceberg是规定只能将数据存储在Parquet、ORC和Avro文件中的。像 Parquet 这样的文件格式已经可以读取每个数据文件中的列子集并跳过行。
因此,如果可以跟踪表中的每个数据文件,分区和列级指标的主要信息,那么就可以根据数据文件的统计信息来更有效的进行Data skip。
在Iceberg中对于每个数据文件,都会存在一个manifest清单文件来追踪这个数据文件的位置,分区信息和列的最大最小,以及是否存在 null 或 NaN 值等统计信息。每个清单都会跟踪表中的文件子集,以减少写入放大并允许并行元数据操作。
每个清单文件追踪的不只是一个文件,在清单文件中会为每个数据文件创建一个统计信息的json存储。这样可以使用这些统计信息检查每个文件是否与给定的查询过滤器匹配,如果当前查询的信息并不在当前数据的范围内,还可以实现File skip, 避免读取不必要的文件。
如下图所示,每个清单文件追踪多个数据文件,这样的优点是减少了元数据小文件的生成,同时可以允许跳过整个清单文件以及其关联的数据文件。

在元数据层面上,Iceberg 将某个版本或快照的清单文件存贮在清单文件列表中,即manifest-list中。其是manifest-list并不是单独的文件,而是snapshot快照文件中的一个list。
从manifest-list清单文件列表中读取清单时,Iceberg 会将查询的分区谓词与每个分区字段的值范围进行比较,然后跳过那些没有任何范围重叠的清单文件。元数据中的min-max索引对查找查询文件所需的工作量产生了巨大影响。当表增长到数十或数百 PB 时,可能会有数 GB 的元数据,如果对元数据进行暴力扫描将需要长时间的等待作业——相反,使用min-max索引构建的元数据存储使得Iceberg 会跳过大部分。

回过头来,我们在来看下Iceberg在其中是如何维护分区信息的。
Iceberg和Hive不同的是,Iceberg不是通过list出目录来跟踪分区和定位文件的。从上面的元数据文件可以看出,Iceberg的清单文件中会记录每个数据文件所属的分区值信息,同时在清单列表中会记录每个清单文件的分区信息。除此以外在Iceberg的数据文件中也会存储分区列的值,以进行自动分区转换的实现。
总而言之,Iceberg采用的是直接存储分区值而不是作为字符串键,这样无需像 Hive 中那样解析键或 URL 编码值,同时利用元数据索引来过滤分区选择数据文件。
综上,每次进行数据的增删改都会创建一系列的Data file 或 Delete file数据文件, 同时会生成多个追踪和记录每个数据文件的manifest file清单文件,每个清单文件中可能会记录多个数据文件的统计信息;这些清单文件会被汇总记录到snapshot文件中的manifest list清单文件列表中,同时在快照文件中记录了每个清单文件的统计信息,方便跳过整个清单文件。而每次操作都会重新复制一份metadata.json 的元数据文件,文件汇总了所有快照文件的信息,同时在文件中追加写入最新生成的快照文件。
Iceberg表格式的最主打的卖点正是其更快的查询速度。
在Iceberg中自上而下实现了三层的数据过滤策略,分别是分区裁剪、文件过滤和RowGroup过滤。
分区剪裁:对于分区表来说,优化器可以自动从where条件中根据分区键直接提取出需要访问的分区,从而避免扫描所有的分区,降低了IO请求。Iceberg支持分区表和隐式分区技术,所以很自然地支持分区裁剪优化。
如上一节所示,Iceberg实现分区剪枝并不依赖文件所在的目录,而是利用了Iceberg特有的清单文件实现了一套更为复杂的分区系统及分区剪枝算法,名为Hidden Partition。首先每个snapshot中都存储所有manifest清单文件的包含分区列信息,每个清单文件每个数据文件中存储分区列值信息。这些元数据信息可以帮助确定每个分区中包含哪些文件。
这样实现的好处是:1. 无需调用文件系统的list操作,可以直接定位到属于分区的数据文件。2. partition的存储方式是透明的,用户在查询时无需指定分区,Iceberg可以自己实现分区的转换。3. 即使用户修改分区信息后,用户无需重写之前的数据。
文件过滤:Iceberg提供了文件级别的统计信息,例如Min/Max等。可以用where语句中的过滤条件去判断目标数据是否存在于文件中。
Iceberg利用元数据中的统计信息,通过Predicate PushDown(谓词下推)实现数据的过滤。
在讲Iceberg前我们先来说下Spark是如何实现谓词下推的:
在SparkSQL优化中,会把查询的过滤条件,下推到靠近存储层,这样可以减少从存储层读取的数据量。其次在真正读取过滤数据时,Spark并不自己实现谓词下推,而是交给文件格式的reader来解决。例如对于parquet文件,Spark使用PartquetRecordReader或VectorizedParquetRecordReader类来读取parquet文件,分别对于非向量化读和向量化的读取。在构造reader类时需要提供filter的参数,即过滤的条件。过滤逻辑稍后由RowGroupFilter调用,根据文件中块的统计信息或存储列的元数据验证是否应该删除读取块。(Spark在3.1 支持avro, json, csv的谓词下推)
相比于Spark, Iceberg会在snapshot层面,基于元数据信息过滤掉不满足条件的data file。
RowGroup过滤:对于Parquet这类列式存储文件格式,它也会有文件级别的统计信息,例如Min/Max/BloomFiter等等,利用这些信息可以快速跳过无关的RowGroup,减少文件内的数据扫描。
Iceberg在data file层面过滤掉不满足条件的RowGroup。这一点和Spark实际是类似的,但是作为存储引擎的Iceberg,他使用了parquet更偏底层的ParquetFileReader接口,自己实现了过滤逻辑。
Iceberg通过调用更底层的API, 可以直接跳过整个RowGroup, 更进一步的减少了IO量。
今天我们先简单介绍了Iceberg, 后续再通过源码去了解Iceberg是如何实现upsert, delete 以及如何与Spark进行整合的。
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
有时我需要处理键/值数据。我不喜欢使用数组,因为它们在大小上没有限制(很容易不小心添加超过2个项目,而且您最终需要稍后验证大小)。此外,0和1的索引变成了魔数(MagicNumber),并且在传达含义方面做得很差(“当我说0时,我的意思是head...”)。散列也不合适,因为可能会不小心添加额外的条目。我写了下面的类来解决这个问题:classPairattr_accessor:head,:taildefinitialize(h,t)@head,@tail=h,tendend它工作得很好并且解决了问题,但我很想知道:Ruby标准库是否已经带有这样一个类? 最佳
我正在尝试用Prawn生成PDF。在我的PDF模板中,我有带单元格的表格。在其中一个单元格中,我有一个电子邮件地址:cell_email=pdf.make_cell(:content=>booking.user_email,:border_width=>0)我想让电子邮件链接到“mailto”链接。我知道我可以这样链接:pdf.formatted_text([{:text=>booking.user_email,:link=>"mailto:#{booking.user_email}"}])但是将这两行组合起来(将格式化文本作为内容)不起作用:cell_email=pdf.make_c
我正在尝试使用Curbgem执行以下POST以解析云curl-XPOST\-H"X-Parse-Application-Id:PARSE_APP_ID"\-H"X-Parse-REST-API-Key:PARSE_API_KEY"\-H"Content-Type:image/jpeg"\--data-binary'@myPicture.jpg'\https://api.parse.com/1/files/pic.jpg用这个:curl=Curl::Easy.new("https://api.parse.com/1/files/lion.jpg")curl.multipart_form_
无论您是想搭建桌面端、WEB端或者移动端APP应用,HOOPSPlatform组件都可以为您提供弹性的3D集成架构,同时,由工业领域3D技术专家组成的HOOPS技术团队也能为您提供技术支持服务。如果您的客户期望有一种在多个平台(桌面/WEB/APP,而且某些客户端是“瘦”客户端)快速、方便地将数据接入到3D应用系统的解决方案,并且当访问数据时,在各个平台上的性能和用户体验保持一致,HOOPSPlatform将帮助您完成。利用HOOPSPlatform,您可以开发在任何环境下的3D基础应用架构。HOOPSPlatform可以帮您打造3D创新型产品,HOOPSSDK包含的技术有:快速且准确的CAD
本教程将在Unity3D中混合Optitrack与数据手套的数据流,在人体运动的基础上,添加双手手指部分的运动。双手手背的角度仍由Optitrack提供,数据手套提供双手手指的角度。 01 客户端软件分别安装MotiveBody与MotionVenus并校准人体与数据手套。MotiveBodyMotionVenus数据手套使用、校准流程参照:https://gitee.com/foheart_1/foheart-h1-data-summary.git02 数据转发打开MotiveBody软件的Streaming,开始向Unity3D广播数据;MotionVenus中设置->选项选择Unit
文章目录一、概述简介原理模块二、配置Mysql使用版本环境要求1.操作系统2.mysql要求三、配置canal-server离线下载在线下载上传解压修改配置单机配置集群配置分库分表配置1.修改全局配置2.实例配置垂直分库水平分库3.修改group-instance.xml4.启动监听四、配置canal-adapter1修改启动配置2配置映射文件3启动ES数据同步查询所有订阅同步数据同步开关启动4.验证五、配置canal-admin一、概述简介canal是Alibaba旗下的一款开源项目,Java开发。基于数据库增量日志解析,提供增量数据订阅&消费。Git地址:https://github.co
我正在尝试在Rails上安装ruby,到目前为止一切都已安装,但是当我尝试使用rakedb:create创建数据库时,我收到一个奇怪的错误:dyld:lazysymbolbindingfailed:Symbolnotfound:_mysql_get_client_infoReferencedfrom:/Library/Ruby/Gems/1.8/gems/mysql2-0.3.11/lib/mysql2/mysql2.bundleExpectedin:flatnamespacedyld:Symbolnotfound:_mysql_get_client_infoReferencedf
文章目录1.开发板选择*用到的资源2.串口通信(个人理解)3.代码分析(注释比较详细)1.主函数2.串口1配置3.串口2配置以及中断函数4.注意问题5.源码链接1.开发板选择我用的是STM32F103RCT6的板子,不过代码大概在F103系列的板子上都可以运行,我试过在野火103的霸道板上也可以,主要看一下串口对应的引脚一不一样就行了,不一样的就更改一下。*用到的资源keil5软件这里用到了两个串口资源,采集数据一个,串口通信一个,板子对应引脚如下:串口1,TX:PA9,RX:PA10串口2,TX:PA2,RX:PA32.串口通信(个人理解)我就从串口采集传感器数据这个过程说一下我自己的理解,
SPI接收数据左移一位问题目录SPI接收数据左移一位问题一、问题描述二、问题分析三、探究原理四、经验总结最近在工作在学习调试SPI的过程中遇到一个问题——接收数据整体向左移了一位(1bit)。SPI数据收发是数据交换,因此接收数据时从第二个字节开始才是有效数据,也就是数据整体向右移一个字节(1byte)。请教前辈之后也没有得到解决,通过在网上查阅前人经验终于解决问题,所以写一个避坑经验总结。实际背景:MCU与一款芯片使用spi通信,MCU作为主机,芯片作为从机。这款芯片采用的是它规定的六线SPI,多了两根线:RDY和INT,这样从机就可以主动请求主机给主机发送数据了。一、问题描述根据从机芯片手