前言Apache Beam是一个开源的数据处理编程库,由google贡献给Apache的项目,前不久刚刚成为Apache TLP项目 。它提供了一个高级的、统一的编程模型,允许我们通过构建Pipeline的方式实现批量、流数据处理,并且构建好的Pipeline能够运行在底层不同的执行引擎上 。刚刚接触该开源项目时,我的第一感觉就是:在编程API的设计上,数据集及其操作的抽象有点类似Apache Crunch(MapReduce Pipeline编程库)项目;而在支持统一数据处理模型上,能够让人想到Apache Flink项目 。如果深入了解Apache Beam,你会发现未来Apache Beam很可能成为数据处理领域唯一一个能够将不同的数据应用统一起来的编程库 。(原创:时延军(包含链接:http://shiyanjun.cn)
Apache Beam架构概览
Apache Beam目前最新版本为0.5.0-SNAPSHOT,最新的Release版本为0.4.0,很多特性还在开发中 。在网上找到一个由Andrew Psaltis在2016年6月份演讲的《Apache Beam: The Case for Unifying Streaming API’s》,引用了其中一个Apache Beam的架构图,如下图所示:

文章插图
上图中,我们可以看到,Apache Beam核心的主要有两层:
在Pipeline构建层,针对不同的编程语言,构建一组用于定义Pipeline相关抽象,提供编程API,这一层被称为Beam SDKs 。最终的用户(具有不同编程语言技能的人员)可以基于这些抽象的Beam SDK来构建数据处理Pipeline 。
Runner适配层,主要是用来对接底层的计算引擎,用来执行上层用户开发好的Pipeline程序 。
我们先根据官网文档,了解一下Apache Beam的Roadmap 。首先,下面的三个特性,或者说是Apache Beam的目标:
基于单一的编程模型,能够实现批处理(Batch processing)、流处理(Streaming Processing),通常的做法是把待处理的数据集(Dataset)统一,一般会把有界(Bound)数据集作为无界(Unbound)数据集的一种特殊情况来看待,比如Apache Flink便是按照这种方式处理,在差异化的API层之上构建一个统一的API层 。
在多个不同的计算环境下,都能够执行已经定义好的数据处理Pipeline 。也就是说,对数据集处理的定义(即构建的Data Pipeline),与最终所要Deploy的执行环境完全无关 。这对实现数据处理的企业是非常友好的,当下数据处理新技术不断涌现,企业数据处理平台也为了能够与时俱进并提高处理效率,当然希望在底层计算平台升级的过程中无需重写上层已定义的Data Pipeline 。目前,Apache Beam项目开发整体来看还处在初期,初步决定底层执行环境支持主流的计算平台:Apache Apex、Apache Flink、Apache Spark、Google Cloud Dataflow 。实际上,Apache Beam的这种统一编程模型,可以支持任意的计算引擎,通过Data Pipeline层与执行引擎层之间开发一个类似Driver的连接器即可实现 。
实现任意可以共享的Beam SDK、IO connector、Transform库 。
基本概念
在使用Apache Beam构建数据处理程序,首先需要使用Beam SDK中的类创建一个Driver程序,在Driver程序中创建一个满足我们数据处理需求的Pipeline,Pipeline中包括输入(Inputs)、转换(Transformations)、输出(Outputs)三个核心的组件 。然后,根据我们选择的Beam SDK来确定底层使用Pipeline Runner(执行引擎,或计算引擎),将我们定义好的Pipeline运行在Pipeline Runner上 。Apache Beam SDKs提供一组抽象,用来简化大规模分布式数据处理 。同一个Beam抽象,能够同时适应批量处理、流处理两种数据源 。下面,我们了解一下Apache Beam的一些关键抽象:
一个Pipeline是对一个数据处理任务抽象,它包含了我们在对给定数据集处理的全部逻辑,主要包括从数据源读取数据(可能从多个数据源读取)、在给定的数据集上执行Transform操作(中间可能是一个DAG图,通过多个Transform连接,而Transform的输出和输出都可能是一个数据集)、将Transform的数据结果写入到指定对的存储系统中 。
一个PCollection是对分布式数据集的抽象,他可以是输入数据集、中间结果数据集、输出数据集 。每一个由PCollection表征的数据集作为输入时,都会存在一个或多个Transform作用在其上(对数据集进行处理的逻辑) 。
一个Transform表示数据处理过程中一个步骤(Step),对应于Pipeline中一个操作,每一个Transform会以一个或多个PCollection作为输入,经过处理后输出一个或多个PCollection 。
推荐阅读
-
斜风细娱■雅生活服务如何实现逆周期成长?,财报|股价大幅跑赢恒指地产
-
西游记|86版《西游记》红孩儿演员如今已是中科院博士 网友热议
-
-
刘向|惊险!淄博街头,小轿车溜车压上老人,男子飞奔截停车辆(视频)
-
青年|王者: 新赛季异军突起的辅助, 不是盾山张飞, 而是这个冷门战士
-
豪门|香港豪门太子爷下聘礼,与赌王千金何超盈过大礼有的一拼啊!
-
『挖贝网』自身业务增长和新并购子公司所致,浙数文化2019年净利5.08亿增长6.28%
-
消费|【财富雅谈】科技、消费、医药三大行业基金 为什么要有不同的投资策略?
-
『有轨电车』成都地铁车站、有轨电车列车全面上线\"健康码\"
-
跳跳糖哪里跑|目前热播剧“热度”大洗牌:《摩天大楼》空降第2,榜首长期霸屏
-
污染环境修复后可从宽处理是“花钱买刑”?最高检回应
-
女租客称洗澡时遭合租男破门而入|女租客称洗澡时遭合租男破门而入 警方已介入调查
-
小八卦,邓伦,袁姗姗,赵丽颖,钟汉良,王一博,杨幂,关晓彤
-
『』装修中不要犯这些错事,尤其是厨房,只有入住才知多后悔
-
-
冬菇闲聊娱乐|刚起飞就被实况直播,邻国:毫无秘密可言,印度出动大批战机
-
拜仁慕尼黑|5-0!11-1!拜仁欧冠底蕴完爆法甲豪门,15.6亿比拼,CCTV5直播
-
淡蓝色的记忆|几年后,如果张无忌第四次闯金刚伏魔圈,孤身一人能闯阵成功吗?
-
-