ApacheFlink官方文档中文版--Flink是什么?
架构
原文链接
Apache Flink是一个用于对无边界和有边界数据流进行有状态计算的框架和分布式处理引擎。Flink设计为运行在所有常见的集群环境中,并且以内存速度和任意规模执行计算。
成都创新互联专注于网站建设|成都网站维护|优化|托管以及网络推广,积累了大量的网站设计与制作经验,为许多企业提供了网站定制设计服务,案例作品覆盖服务器租用等行业。能根据企业所处的行业与销售的产品,结合品牌形象的塑造,量身设计品质网站。
在这里,我们解释Flink架构的相关重要内容。
处理无边界和有边界数据
任何类型的数据都是作为事件流产生的。信用卡交易事务,传感器测量,机器日志以及网站或移动应用程序上的用户交互行为,所有这些数据都生成流。
数据可以作为无边界或有边界流处理。
- 无边界流定义了开始但没有定义结束。它们不会在生成时终止提供数据。必须持续地处理无边界流,即必须在拉取到事件后立即处理它。无法等待所有输入数据到达后处理,因为输入是无边界的,并且在任何时间点都不会完成。处理无边界数据通常要求以特定顺序(例如事件发生的顺序)拉取事件,以便能够推断结果完整性。
- 有边界流定义了开始和结束。可以在执行任何计算之前通过拉取到所有数据后处理有界流。处理有界流不需要有序拉取,因为可以随时对有界数据集进行排序。有边界流的处理也称为批处理。
Apache Flink擅长处理无边界和有边界数据集。在事件和状态上的精确控制使得Flink运行时能在无边界流上运行任意类型的应用程序。有界流由算法和数据结构内部处理,这些算法和数据结构专门针对固定大小的数据集而设计,从而获得优秀的性能。随处部署应用程序
Apache Flink是一个分布式系统,需要计算资源才能执行应用程序。Flink与所有常见的集群资源管理器(如Hadoop YARN,Apache Mesos和Kubernetes)集成,但也可以作为独立集群运行。
Flink旨在很好地适用于之前列出的每个资源管理器。这是通过特定于资源管理器的部署模式实现的,这些模式允许Flink以其惯用的方式与每个资源管理器进行交互。
部署Flink应用程序时,Flink会根据应用程序配置的并行度自动识别所需资源,并从资源管理器请求它们。如果发生故障,Flink会通过请求新的资源来替换发生故障的容器。提交或控制应用程序的所有通信都通过REST调用进行。这简化了Flink在许多环境中的集成。任意规模运行应用程序
Flink旨在以任意规模运行有状态流式应用程序。应用程序可以并行化为数千个在集群中分布和同时执行的任务。因此,应用程序可以利用几乎无限量的CPU,内存,磁盘和网络IO。而且,Flink可以轻松维护非常大的应用程序的状态。其异步和增量检查点算法确保对延迟处理的影响最小,同时保证精确一次的状态一致性。
用户报告了在其生产环境中运行的Flink应用程序的扩展数字令人印象十分深刻,例如:- 应用程序每天处理数万亿个事件
- 应用程序维护数个TB的状态
- 应用程序在数千个CPU核上运行
利用内存的性能
有状态的Flink应用程序针对本地状态访问进行了优化。任务状态始终驻留在内存中,或者,如果状态大小超过可用内存,则保存在访问高效的磁盘上的数据结构中。因此,任务通过访问本地(通常是内存中)状态来执行所有计算,从而产生非常低的处理延迟。Flink通过定期和异步检查点将本地状态到持久存储来保证在出现故障时的精确一次的状态一致性。
应用
原文链接
Apache Flink是一个用于对无边界和有边界数据流进行有状态计算的框架。Flink在不同的抽象级别提供多个API,并为常见用例提供专用库。
在这里,我们介绍Flink易于使用以及富有表现力的API和库。
为流应用程序构建块
流式计算框架构建和运行的应用程序的类型,由框架控制流、状态以及时间的程度来定义。在下文中,我们描述了流处理应用程序的这些构建块,并解释了Flink处理他们的方法。
流
显然,流是流式处理的一个基本方面。然而,流可以有不同的特征,这些特征会影响流的处理方式。Flink是一个多功能的处理框架,它可以处理任意类型的流。
- 有边界和无边界的流:流可以是无边界或是有边界的,如固定大小的数据集。Flink具有处理无边界流的复杂功能,但也有专用的运算符来有效地处理有边界流。
- 实时和记录的流:所有数据都作为流生成,有两种方法可以处理数据。在生成时实时处理它或者将流持久保存到存储系统(例如文件系统或对象存储),并在之后对其进行处理。Flink应用程序可以处理记录或实时流。
状态
每个非凡的流式应用都是有状态的。只有对个别事件应用转换的应用程序才不需要状态。运行基本业务逻辑的任何应用程序都需要记住事件或中间结果,以便在之后的时间点访问它们,例如在收到下一个事件时或在特定持续时间之后。
应用程序的状态在Flink中是一等公民。您可以通过查看Flink在状态处理环境(上下文context)中提供的所有功能(函数)来查看。
- 多状态原语:Flink为不同的数据结构提供了状态原语,如原子值(value),列表(list)或映射(map)。开发人员可以根据函数的访问模式选择最有效的状态原语。
- 可插拔状态后端:应用程序状态由可插拔状态后端管理以及检查(checkpointed)。Flink有不同的状态后端,可以在内存或RocksDB中存储状态,RocksDB(KV DB)是一种高效的嵌入式磁盘数据存储。也可以插入自定义状态后端。
- 精确一次的状态一致性:Flink的检查点和恢复算法可确保在发生故障时应用程序状态的一致性。因此,故障是透明处理的,不会影响应用程序的正确性。
- 非常大的状态:由于其异步和增量检查点算法,Flink能够维持几个TB的应用程序状态。
- 可扩展的应用程序: Flink通过将状态重新分配给更多或更少的Worker节点来支持有状态应用程序的扩展。
时间
时间是流式应用的另一个重要组成成分。大多数事件流都具有固定的时间语义,因为每个事件都是在特定的时间点生成的。此外,许多常见的流计算基于时间,例如窗口聚合、会话化、模式监测和基于时间的连接。流处理的一个重要方面是应用程序如何测量时间,即时间时间和处理时间之间的差异。
Flink提供了一组丰富的与时间相关的功能。
- 事件时间模式:使用事件时间语义处理流的应用程序根据时间的时间戳计算结果。因此,无论是否处理记录或实时的时间,事件时间处理都是准确和一致的结果。
- 水印支持:Flink使用水印来推断事件时间应用中的时间。水印也是一种灵活的机制,可以权衡取舍延迟数据和结果的完整性。
- 延迟数据处理:当在事件时间模式下使用水印处理流时,可能会发生在所有相关事件到达之前已完成计算的情况。这类事件被称为延迟事件。Flink具有多种处理延迟事件的选项,例如通过边输出重新路由它们以及更新之前已经完成的结果。
- 处理时间模式:除了事件时间模式以外,Flink还支持处理时间语义,处理时间语义的执行由处理机器的挂钟(系统)时间来触发计算。处理时间模式适用于某些具有严格的低延迟要求的应用,这些要求同时可以容忍近似结果。
分层接口API
Flink提供三层API。每个API在简洁性和表达性之间提供不同的权衡,并针对不同的用例。
我们简要介绍每个API,讨论它的应用程序,并展示一个代码示例。
ProcessFunctions
ProcessFunctions是Flink提供的最具表现力的功能接口。Flink提供ProcessFunctions来处理来自一个或两个输入流中的单个事件或分组到一个窗口的事件。ProcessFunctions提供对时间和状态的细粒度控制。ProcessFunction可以任意修改其状态并注册将在未来触发回调函数的定时器。因此,ProcessFunctions可以实现许多有状态事件驱动应用程序所需的复杂的每个事件业务逻辑。
以下示例显示了KeyedProcessFunction对KeyedStream,匹配START以及END事件进行操作的示例。当一个START事件被接收时,该函数在记住其状态时间戳和并且注册四个小时的计时器。如果在计时器触发之前收到END事件,则该函数计算事件END和START事件之间的持续时间,清除状态并返回值。否则,计时器只会触发并清除状态。
package com.longyun.flink.processfuncs;
import org.apache.flink.api.common.state.ValueState;
import org.apache.flink.api.common.state.ValueStateDescriptor;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.functions.KeyedProcessFunction;
import org.apache.flink.util.Collector;
/**
* @author lynnyuan
* @ClassName com.longyun.flink.processfuncs.StartEndDuration
* @Description TODO
* K key
* IN input
* OUT output
* @Date 2018/12/3 15:02
* @Version 1.0
**/
public class StartEndDuration extends KeyedProcessFunction, Tuple2> {
private ValueState startTime;
@Override
public void open(Configuration configuration) throws Exception {
//obtain state handle
startTime = getRuntimeContext().getState(
new ValueStateDescriptor("startTIme", Long.class));
}
/**
* called for each processed event
* @param in
* @param context
* @param out
* @throws Exception
*/
@Override
public void processElement(Tuple2 in, Context context, Collector> out) throws Exception {
switch (in.f1){
case "START":
//set the start time if we receive a start event.
startTime.update(context.timestamp());
//register a timer in four hours from the start event.
context.timerService()
.registerEventTimeTimer(context.timestamp() + 4 * 60 * 60 * 1000);
break;
case "END":
//emit the duration between start and end event
Long sTime = startTime.value();
if(sTime != null){
out.collect(Tuple2.of(in.f0, context.timestamp() - sTime));
//clear the state
startTime.clear();
}
break;
default:
break;
}
}
/** Called when a timer fires */
@Override
public void onTimer(long timestamp, OnTimerContext ctx, Collector> out) throws Exception {
//Time out interval exceeded. Cleaning up the state.
startTime.clear();
}
}
这个例子说明了KeyedProcessFunction的表达能力,但也强调了它是一个相当冗长的接口。
DataStream API
DataStream API提供了许多通用流处理操作原语。如窗口,record-at-a-time转换,查询外部数据存储丰富事件原语。DataStream API可用于Java和Scala且它是基于函数的,如map()、reduce()以及aggregate()。可以通过扩展接口或lambda函数来定义函数参数。
以下示例展示如何对点击流进行会话化以及记录每个session的点击次数。
// a stream of website clicks
DataStream clicks = ...
DataStream> result = clicks
// project clicks to userId and add a 1 for counting
.map(
// define function by implementing the MapFunction interface.
new MapFunction>() {
@Override
public Tuple2 map(Click click) {
return Tuple2.of(click.userId, 1L);
}
})
// key by userId (field 0)
.keyBy(0)
// define session window with 30 minute gap
.window(EventTimeSessionWindows.withGap(Time.minutes(30L)))
// count clicks per session. Define function as lambda function.
.reduce((a, b) -> Tuple2.of(a.f0, a.f1 + b.f1));
SQL & Table API
Flink有两种关系化API特性, Table API和SQL。这两个API都是用于批处理和流处理的统一API,即,在无边界的实时流或有边界的记录流上以相同的语义执行查询,并产生相同的结果。Table API和SQL利用Apache Calicite来解析,校验以及查询优化。它们可以与DataStream和DataSet API无缝集成,并支持用户定义的标量,聚合以及表值函数。
Flink的关系化API旨在简化数据分析,数据流水线和ETL应用程序的定义。
以下示例展示如何对点击流进行会话化以及记录每个session的点击次数。与DataStream API中的示例是相同的用例。
SELECT userId, COUNT(*)
FROM clicks
GROUP BY SESSION(clicktime, INTERVAL '30' MINUTE), userId
库(Libraries)
Flink具有几个用于常见数据处理用例的库。这些库通常嵌入在API中,而不是完全独立的。因此,它们可以从API的所有特性中受益,并与其他库集成。
- 复杂事件处理(CEP): 模式检测是事件流处理中的一个非常常见的用例。Flink的CEP库提供了一个API来指定事件模式(如正则表达式或状态机)。CEP库与Flink的DataStream API集成,以便在DataStream上评估模式。CEP库的应用包括网络***检测,业务流程监控和欺诈检测。
- DataSet API:DataSet API是Flink用于批处理应用程序的核心API。DataSet API的原语包括 map,reduce,(outer)join,co-group和iterate。所有操作都由算法和数据结构支持,这些算法和数据结构对内存中的序列化数据进行进行操作,如果数据大小超过内存预算则溢出到磁盘。Flink的DataSet API的数据处理算法收到传统数据库运算符的启发,例如混合散列连接或外部合并排序( hybrid hash-join or external merge-sort)。
- Gelly:Gelly是一个可扩展的图形处理和分析库。Gelly是在DataSet API之上实现的,并与DataSet API集成在一起。因此,它受益于其可扩展且强大的操作符。Gelly具有内置算法,如label propagation(标签传播), triangle enumeration, and page rank, 但也提供了一个自定义图算法实现的简化Graph API。
操作
Apache Flink是一个用于对无边界和有边界数据流进行有状态计算的框架。由于许多流应用程序设计为以最短的停机时间连续运行,因此流处理器必须提供出色的故障恢复,以及在应用程序运行时监控和维护应用程序的工具。
Apache Flink非常关注流处理的操作方面。在这里,我们将解释Flink的故障恢复机制,并介绍其管理和监督正在运行的应用程序的特性。
全天候运行应用程序
机器和处理故障在分布式系统中无处不在。像Flink这样的分布式流处理器必须从故障中恢复,以便能够全天候运行流应用程序。显然,这不仅意味着在故障发生后重新启动应用程序,而且还要确保其内部状态保持一致,以便应用程序可以继续处理,就像从未发生过故障一样。
Flink提供了多种特性,以确保应用程序保持运行并保持一致:
- 一致的检查点:Flink的恢复机制基于应用程序状态的一致性检查点。如果发生故障,将重新启动应用程序并从最新检查点加载其状态。结合可重置的流源,此特性可以保证精确一次的状态一致性。
- 高效的检查点:如果应用程序保持TB级的状态,则检查应用程序的状态可能非常昂贵。Flink可以执行异步和增量检查点,以便将检查点对应用程序的延迟SLAs的影响保持在非常小的水平。
- End-to-End精确一次:Flink为特定存储系统提供事务接收(sink)器,保证数据只写出一次,即使出现故障。
- 与集群管理器集成:Flink与集群管理器紧密集成,例如Hadoop YARN,Mesos或Kubernetes。当进程失败时,将自动启动一个新进程来接管它的工作。
- 高可用性设置:Flink具有高可用性模式特性,可消除所有单点故障。HA模式基于Apache ZooKeeper--是一种经过验证的可靠分布式协调服务。
更新,迁移,暂停和恢复您的应用程序
需要维护为关键业务服务提供支持的流应用程序。需要修复错误,并且需要实现改进或新功能特性。但是,更新有状态流应用程序并非易事。通常,我们不能简单地停止应用程序并重新启动固定版本或改进版本,因为无法承受丢失应用程序的状态。
Flink的Savepoints是一个独特而强大的功能特性,可以解决更新有状态应用程序和许多其他相关挑战的问题。保存点是应用程序状态的一致快照,因此它与检查点非常相似。但是,与检查点相比,需要手动触发保存点,并且在应用程序停止时不会自动删除保存点。保存点可用于启动状态兼容的应用程序并初始化其状态。保存点可启用以下功能:
- 应用程序演变:保存点可用于发展应用程序。可以从从先前版本的应用程序中获取的保存点重新启动应用程序的固定或改进版本。也可以从较早的时间点(假设存在这样的保存点)启动应用程序,以修复由有缺陷的版本产生的错误结果。
- 集群迁移:使用保存点,可以将应用程序迁移(或克隆)到不同的集群。
- Flink版本更新:可以使用保存点迁移应用程序在Flink的新版本上运行。
- 应用程序扩展:保存点可用于增加或减少应用程序的并行性。
- A / B测试和假设情景:通过在同一保存点启动应用程序的所有版本,可以比较两个(或更多)不同版本的应用程序的性能或质量。
- 暂停和恢复:可以通过获取保存点来暂停应用程序并停止它。在以后的任何时间点,都可以从保存点恢复应用程序。
- 归档:保存点可以存档,以便能够将应用程序的状态重置为较早的时间点。
监控和控制您的应用程序
与任何其他服务一样,持续运行的流应用程序需要受到监督并集成到组织的运营(operations)基础架构(即监控和日志记录服务)中。监控有助于预测问题并提前做出反应。日志记录让我们可以依据根原因分析来调查故障。最后,控制运行应用程序的易于访问的界面也是一个重要特性。
Flink与许多常见的日志记录和监视服务已经很好地集成,并提供REST API来控制应用程序和查询信息。 - Web UI:Flink拥有Web UI功能特性,可以检查,监视和调试正在运行的应用程序。它还可用于提交执行或取消执行。
- Logging: Flink实现了流行的slf4j日志记录接口,并与日志框架log4j或logback集成。
- Metrics:Flink具有复杂的度量标准系统,用于收集和报告系统和用户定义的度量标准。度量标准可以导出到几个reporters,包括JMX,Ganglia,Graphite,Prometheus,StatsD,Datadog和Slf4j。
- REST API:Flink暴露公开提交新应用程序,获取正在运行的应用程序的保存点或取消应用程序的REST API。REST API还公开元数据、收集到的正在运行的或已完成应用程序的指标。
网站题目:ApacheFlink官方文档中文版--Flink是什么?
本文网址:http://myzitong.com/article/jsdeds.html