当前位置: 首页 > news >正文

鲜花网站建设源代码提供电商网站建设

鲜花网站建设源代码,提供电商网站建设,广州高铁新建站在哪里,WordPress嵌入文章案例用到的测试数据请参考文章#xff1a; Flink自定义Source模拟数据流 原文链接#xff1a;https://blog.csdn.net/m0_52606060/article/details/135436048 窗口的概念 Flink是一种流式计算引擎#xff0c;主要是来处理无界数据流的#xff0c;数据源源不断、无穷无尽。…案例用到的测试数据请参考文章 Flink自定义Source模拟数据流 原文链接https://blog.csdn.net/m0_52606060/article/details/135436048 窗口的概念 Flink是一种流式计算引擎主要是来处理无界数据流的数据源源不断、无穷无尽。想要更加方便高效地处理无界流一种方式就是将无限数据切割成有限的“数据块”进行处理这就是所谓的“窗口”Window。 注意Flink中窗口并不是静态准备好的而是动态创建——当有落在这个窗口区间范围的数据达到时才创建对应的窗口。另外这里我们认为到达窗口结束时间时窗口就触发计算并关闭事实上“触发计算”和“窗口关闭”两个行为也可以分开这部分内容我们会在后面详述。 窗口的分类 我们在上一节举的例子其实是最为简单的一种时间窗口。在Flink中窗口的应用非常灵活我们可以使用各种不同类型的窗口来实现需求。接下来我们就从不同的角度对Flink中内置的窗口做一个分类说明。 按照驱动类型分类 按照窗口分配数据的规则分类 根据分配数据的规则窗口的具体实现可以分为4类滚动窗口Tumbling Window、滑动窗口Sliding Window、会话窗口Session Window以及全局窗口Global Window。 滚动窗口 滑动窗口 会话窗口 全局窗口 窗口API概览 按键分区Keyed和非按键分区Non-Keyed 在定义窗口操作之前首先需要确定到底是基于按键分区Keyed的数据流KeyedStream来开窗还是直接在没有按键分区的DataStream上开窗。也就是说在调用窗口算子之前是否有keyBy操作。 按键分区窗口Keyed Windows 经过按键分区keyBy操作后数据流会按照key被分为多条逻辑流logical streams这就是KeyedStream。基于KeyedStream进行窗口操作时窗口计算会在多个并行子任务上同时执行。相同key的数据会被发送到同一个并行子任务而窗口操作会基于每个key进行单独的处理。所以可以认为每个key上都定义了一组窗口各自独立地进行统计计算。 在代码实现上我们需要先对DataStream调用.keyBy()进行按键分区然后再调用.window()定义窗口。 stream.keyBy(...).window(...)非按键分区Non-Keyed Windows 如果没有进行keyBy那么原始的DataStream就不会分成多条逻辑流。这时窗口逻辑只能在一个任务task上执行就相当于并行度变成了1。 在代码中直接基于DataStream调用.windowAll()定义窗口。 stream.windowAll(...)注意对于非按键分区的窗口操作手动调大窗口算子的并行度也是无效的windowAll本身就是一个非并行的操作。 代码中窗口API的调用 窗口操作主要有两个部分窗口分配器Window Assigners和窗口函数Window Functions。 stream.keyBy(key selector).window(window assigner).aggregate(window function)其中.window()方法需要传入一个窗口分配器它指明了窗口的类型而后面的.aggregate()方法传入一个窗口函数作为参数它用来定义窗口具体的处理逻辑。窗口分配器有各种形式而窗口函数的调用方法也不只.aggregate()一种 窗口分配器 定义窗口分配器Window Assigners是构建窗口算子的第一步它的作用就是定义数据应该被“分配”到哪个窗口。所以可以说窗口分配器其实就是在指定窗口的类型。 窗口分配器最通用的定义方式就是调用.window()方法。这个方法需要传入一个WindowAssigner作为参数返回WindowedStream。如果是非按键分区窗口那么直接调用.windowAll()方法同样传入一个WindowAssigner返回的是AllWindowedStream。 窗口按照驱动类型可以分成时间窗口和计数窗口而按照具体的分配规则又有滚动窗口、滑动窗口、会话窗口、全局窗口四种。除去需要自定义的全局窗口外其他常用的类型Flink中都给出了内置的分配器实现我们可以方便地调用实现各种需求。 时间窗口 时间窗口是最常用的窗口类型又可以细分为滚动、滑动和会话三种。 滚动处理时间窗口 窗口分配器由类TumblingProcessingTimeWindows提供需要调用它的静态方法.of()。 stream.keyBy(...).window(TumblingProcessingTimeWindows.of(Time.seconds(5))).aggregate(...)这里.of()方法需要传入一个Time类型的参数size表示滚动窗口的大小我们这里创建了一个长度为5秒的滚动窗口。 另外.of()还有一个重载方法可以传入两个Time类型的参数size和offset。第一个参数当然还是窗口大小第二个参数则表示窗口起始点的偏移量。 滑动处理时间窗口 窗口分配器由类SlidingProcessingTimeWindows提供同样需要调用它的静态方法.of()。 stream.keyBy(...).window(SlidingProcessingTimeWindows.of(Time.seconds(10)Time.seconds(5))).aggregate(...)这里.of()方法需要传入两个Time类型的参数size和slide前者表示滑动窗口的大小后者表示滑动窗口的滑动步长。我们这里创建了一个长度为10秒、滑动步长为5秒的滑动窗口。 滑动窗口同样可以追加第三个参数用于指定窗口起始点的偏移量用法与滚动窗口完全一致。 处理时间会话窗口 窗口分配器由类ProcessingTimeSessionWindows提供需要调用它的静态方法.withGap()或者.withDynamicGap()。 stream.keyBy(...).window(ProcessingTimeSessionWindows.withGap(Time.seconds(10))).aggregate(...)这里.withGap()方法需要传入一个Time类型的参数size表示会话的超时时间也就是最小间隔session gap。我们这里创建了静态会话超时时间为10秒的会话窗口。 另外还可以调用withDynamicGap()方法定义session gap的动态提取逻辑。 滚动事件时间窗口 窗口分配器由类TumblingEventTimeWindows提供用法与滚动处理事件窗口完全一致。 stream.keyBy(...).window(TumblingEventTimeWindows.of(Time.seconds(5))).aggregate(...)滑动事件时间窗口 窗口分配器由类SlidingEventTimeWindows提供用法与滑动处理事件窗口完全一致。 stream.keyBy(...).window(SlidingEventTimeWindows.of(Time.seconds(10)Time.seconds(5))).aggregate(...)事件时间会话窗口 窗口分配器由类EventTimeSessionWindows提供用法与处理事件会话窗口完全一致。 stream.keyBy(...).window(EventTimeSessionWindows.withGap(Time.seconds(10))).aggregate(...)计数窗口 计数窗口概念非常简单本身底层是基于全局窗口Global Window实现的。Flink为我们提供了非常方便的接口直接调用.countWindow()方法。根据分配规则的不同又可以分为滚动计数窗口和滑动计数窗口两类下面我们就来看它们的具体实现。 滚动计数窗口 滚动计数窗口只需要传入一个长整型的参数size表示窗口的大小。 stream.keyBy(...).countWindow(10)我们定义了一个长度为10的滚动计数窗口当窗口中元素数量达到10的时候就会触发计算执行并关闭窗口。 滑动计数窗口 与滚动计数窗口类似不过需要在.countWindow()调用时传入两个参数size和slide前者表示窗口大小后者表示滑动步长。 stream.keyBy(...).countWindow(103)我们定义了一个长度为10、滑动步长为3的滑动计数窗口。每个窗口统计10个数据每隔3个数据就统计输出一次结果。 全局窗口 全局窗口是计数窗口的底层实现一般在需要自定义窗口时使用。它的定义同样是直接调用.window()分配器由GlobalWindows类提供。 stream.keyBy(...).window(GlobalWindows.create());需要注意使用全局窗口必须自行定义触发器才能实现窗口计算否则起不到任何作用。 窗口函数 增量聚合函数ReduceFunction / AggregateFunction 窗口将数据收集起来最基本的处理操作当然就是进行聚合。我们可以每来一个数据就在之前结果上聚合一次这就是“增量聚合”。 典型的增量聚合函数有两个ReduceFunction和AggregateFunction。 归约函数ReduceFunction 代码示例 package com.zxl.Windows;import com.zxl.bean.Orders; import com.zxl.datas.OrdersData; import org.apache.flink.api.common.functions.ReduceFunction; import org.apache.flink.streaming.api.datastream.*; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.api.windowing.windows.TimeWindow;public class WindowAggregateAndProcessDemo {public static void main(String[] args) throws Exception {//创建Flink流处理执行环境StreamExecutionEnvironment environment StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1environment.setParallelism(1);//调用Flink自定义Source// TODO: 2024/1/6 订单数据DataStreamSourceOrders ordersDataStreamSource environment.addSource(new OrdersData());// TODO: 2024/1/9 根据商品ID分区KeyedStreamOrders, Integer keyedStream ordersDataStreamSource.keyBy(orders - orders.getProduct_id());// TODO: 2024/1/9 设置滚动事件时间窗口WindowedStreamOrders, Integer, TimeWindow windowedStream keyedStream.window(TumblingProcessingTimeWindows.of(Time.seconds(5)));// TODO: 2024/1/9 调用聚合函数DataStreamOrders reduce windowedStream.reduce(new ReduceFunctionOrders() {Overridepublic Orders reduce(Orders orders, Orders t1) throws Exception {Orders orders1 new Orders(t1.getOrder_id(), t1.getUser_id(), t1.getOrder_date(), orders.getOrder_amount() t1.getOrder_amount(), t1.getProduct_id(), t1.getOrder_num());return orders1;}});ordersDataStreamSource.print(订单数据);reduce.print(聚合后的数据);environment.execute();} }聚合函数AggregateFunction ReduceFunction可以解决大多数归约聚合的问题但是这个接口有一个限制就是聚合状态的类型、输出结果的类型都必须和输入数据类型一样。 Flink Window API中的aggregate就突破了这个限制可以定义更加灵活的窗口聚合操作。这个方法需要传入一个AggregateFunction的实现类作为参数。 AggregateFunction可以看作是ReduceFunction的通用版本这里有三种类型输入类型IN、累加器类型ACC和输出类型OUT。输入类型IN就是输入流中元素的数据类型累加器类型ACC则是我们进行聚合的中间状态类型而输出类型当然就是最终计算结果的类型了。 接口中有四个方法 createAccumulator()创建一个累加器这就是为聚合创建了一个初始状态每个聚合任务只会调用一次。 add()将输入的元素添加到累加器中。 getResult()从累加器中提取聚合的输出结果。 merge()合并两个累加器并将合并后的状态作为一个累加器返回。 所以可以看到AggregateFunction的工作原理是首先调用createAccumulator()为任务初始化一个状态累加器而后每来一个数据就调用一次add()方法对数据进行聚合得到的结果保存在状态中等到了窗口需要输出时再调用getResult()方法得到计算结果。很明显与ReduceFunction相同AggregateFunction也是增量式的聚合而由于输入、中间状态、输出的类型可以不同使得应用更加灵活方便。代码实现如下 package com.zxl.Windows;import com.zxl.bean.Orders; import com.zxl.datas.OrdersData; import org.apache.flink.api.common.functions.AggregateFunction; import org.apache.flink.streaming.api.datastream.*; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.api.windowing.windows.TimeWindow; import scala.Tuple2;public class WindowAggregateDemo {public static void main(String[] args) throws Exception {//创建Flink流处理执行环境StreamExecutionEnvironment environment StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1environment.setParallelism(1);//调用Flink自定义Source// TODO: 2024/1/6 订单数据DataStreamSourceOrders ordersDataStreamSource environment.addSource(new OrdersData());// TODO: 2024/1/9 根据商品ID分区KeyedStreamOrders, Integer keyedStream ordersDataStreamSource.keyBy(orders - orders.getProduct_id());// TODO: 2024/1/9 设置滚动事件时间窗口WindowedStreamOrders, Integer, TimeWindow windowedStream keyedStream.window(TumblingProcessingTimeWindows.of(Time.seconds(5)));// TODO: 2024/1/9 调用聚合函数 输入类型IN、累加器类型ACC和输出类型OUTDataStreamTuple2String,Integer aggregate windowedStream.aggregate(new AggregateFunctionOrders, Integer, Tuple2String,Integer() {Overridepublic Integer createAccumulator() {return 0;}Overridepublic Integer add(Orders orders, Integer integer) {return orders.getOrder_amount() integer;}Overridepublic Tuple2 getResult(Integer integer) {return new Tuple2(总销售额为, integer);}Overridepublic Integer merge(Integer integer, Integer acc1) {return integer acc1;}});ordersDataStreamSource.print(订单数据);aggregate.print(累加结果);environment.execute();} }另外Flink也为窗口的聚合提供了一系列预定义的简单聚合方法可以直接基于WindowedStream调用。主要包括.sum()/max()/maxBy()/min()/minBy()与KeyedStream的简单聚合非常相似。它们的底层其实都是通过AggregateFunction来实现的。 全窗口函数full window functions 有些场景下我们要做的计算必须基于全部的数据才有效这时做增量聚合就没什么意义了另外输出的结果有可能要包含上下文中的一些信息比如窗口的起始时间这是增量聚合函数做不到的。 所以我们还需要有更丰富的窗口计算方式。窗口操作中的另一大类就是全窗口函数。与增量聚合函数不同全窗口函数需要先收集窗口中的数据并在内部缓存起来等到窗口要输出结果的时候再取出数据进行计算。 在Flink中全窗口函数也有两种WindowFunction和ProcessWindowFunction。 窗口函数WindowFunction WindowFunction字面上就是“窗口函数”它其实是老版本的通用窗口函数接口。我们可以基于WindowedStream调用.apply()方法传入一个WindowFunction的实现类。 stream.keyBy(key selector).window(window assigner).apply(new MyWindowFunction());这个类中可以获取到包含窗口所有数据的可迭代集合Iterable还可以拿到窗口Window本身的信息。 不过WindowFunction能提供的上下文信息较少也没有更高级的功能。事实上它的作用可以被ProcessWindowFunction全覆盖所以之后可能会逐渐弃用。 处理窗口函数ProcessWindowFunction ProcessWindowFunction是Window API中最底层的通用窗口函数接口。之所以说它“最底层”是因为除了可以拿到窗口中的所有数据之外ProcessWindowFunction还可以获取到一个“上下文对象”Context。这个上下文对象非常强大不仅能够获取窗口信息还可以访问当前的时间和状态信息。这里的时间就包括了处理时间processing time和事件时间水位线event time watermark。这就使得ProcessWindowFunction更加灵活、功能更加丰富其实就是一个增强版的WindowFunction。 事实上ProcessWindowFunction是Flink底层API——处理函数process function中的一员。 package com.zxl.Windows;import com.zxl.bean.Orders; import com.zxl.datas.OrdersData; import org.apache.commons.lang3.time.DateFormatUtils; import org.apache.flink.streaming.api.datastream.*; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction; import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.api.windowing.windows.TimeWindow; import org.apache.flink.util.Collector;public class WindowAggregateDemo {public static void main(String[] args) throws Exception {//创建Flink流处理执行环境StreamExecutionEnvironment environment StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1environment.setParallelism(1);//调用Flink自定义Source// TODO: 2024/1/6 订单数据DataStreamSourceOrders ordersDataStreamSource environment.addSource(new OrdersData());// TODO: 2024/1/9 根据商品ID分区KeyedStreamOrders, Integer keyedStream ordersDataStreamSource.keyBy(orders - orders.getProduct_id());// TODO: 2024/1/9 设置滚动事件时间窗口WindowedStreamOrders, Integer, TimeWindow windowedStream keyedStream.window(TumblingProcessingTimeWindows.of(Time.seconds(5)));// TODO: 2024/1/9 调用聚合函数DataStreamObject process windowedStream.process(new ProcessWindowFunctionOrders, Object, Integer, TimeWindow() {// TODO: 2024/1/9 参数说明分组key值窗口计时器,按照key分组后的数据收集器 Overridepublic void process(Integer integer, ProcessWindowFunctionOrders, Object, Integer, TimeWindow.Context context, IterableOrders elements, CollectorObject collector) throws Exception {// TODO: 2024/1/9 窗口内同一个key包含的数据条数 long count elements.spliterator().estimateSize();// TODO: 2024/1/9 窗口的开始时间 long windowStartTs context.window().getStart();// TODO: 2024/1/9 窗口的结束时间 long windowEndTs context.window().getEnd();String windowStart DateFormatUtils.format(windowStartTs, yyyy-MM-dd HH:mm:ss.SSS);String windowEnd DateFormatUtils.format(windowEndTs, yyyy-MM-dd HH:mm:ss.SSS);// TODO: 2024/1/9 输出收集器 collector.collect(key integer 的窗口[ windowStart , windowEnd )包含 count 条数据 elements.toString());}});process.print();environment.execute();} }运行结果 key1的窗口[2024-01-09 13:50:50.000,2024-01-09 13:50:55.000)包含1条数据[Orders{order_id1, user_id2121915138602483235, order_date1704779453159, order_amount98, product_id1, order_num-2382721988645133419}] key0的窗口[2024-01-09 13:50:50.000,2024-01-09 13:50:55.000)包含1条数据[Orders{order_id2, user_id2482049739997888089, order_date1704779454164, order_amount30, product_id0, order_num2841964982779121029}] key0的窗口[2024-01-09 13:50:55.000,2024-01-09 13:51:00.000)包含1条数据[Orders{order_id3, user_id1566873382166007709, order_date1704779455179, order_amount93, product_id0, order_num-2599995117944339091}] key2的窗口[2024-01-09 13:50:55.000,2024-01-09 13:51:00.000)包含2条数据[Orders{order_id5, user_id2939156557521059655, order_date1704779457190, order_amount53, product_id2, order_num7558610452657634753}, Orders{order_id7, user_id3207606619087344211, order_date1704779459207, order_amount68, product_id2, order_num2916017858049892473}] key1的窗口[2024-01-09 13:50:55.000,2024-01-09 13:51:00.000)包含2条数据[Orders{order_id4, user_id-2913400211728912094, order_date1704779456181, order_amount53, product_id1, order_num-8211762615419411134}, Orders{order_id6, user_id-4625564783991851952, order_date1704779458198, order_amount38, product_id1, order_num-9192672975024206743}] key2的窗口[2024-01-09 13:51:00.000,2024-01-09 13:51:05.000)包含3条数据[Orders{order_id8, user_id-7783175175017253666, order_date1704779460220, order_amount30, product_id2, order_num2014420473146031881}, Orders{order_id11, user_id3996488467291302343, order_date1704779463255, order_amount64, product_id2, order_num4251423100237069659}, Orders{order_id12, user_id-4442107151361004758, order_date1704779464261, order_amount47, product_id2, order_num-8911659840331004860}] key1的窗口[2024-01-09 13:51:00.000,2024-01-09 13:51:05.000)包含1条数据[Orders{order_id10, user_id-5659886496986843749, order_date1704779462243, order_amount69, product_id1, order_num6495063122490543901}] key0的窗口[2024-01-09 13:51:00.000,2024-01-09 13:51:05.000)包含1条数据[Orders{order_id9, user_id3106531123134616644, order_date1704779461234, order_amount56, product_id0, order_num-7056086034933246593}] key0的窗口[2024-01-09 13:51:05.000,2024-01-09 13:51:10.000)包含1条数据[Orders{order_id13, user_id3095515769034599633, order_date1704779465271, order_amount5, product_id0, order_num-2769186321280716014}] key2的窗口[2024-01-09 13:51:05.000,2024-01-09 13:51:10.000)包含1条数据[Orders{order_id17, user_id-4750354619891992805, order_date1704779469301, order_amount81, product_id2, order_num4522156848590983285}]也可以这样写 // TODO: 2024/1/9 调用聚合函数DataStreamObject process windowedStream.process(new ProcessWindowFunctionOrders, Object, Integer, TimeWindow() {Overridepublic void process(Integer integer, ProcessWindowFunctionOrders, Object, Integer, TimeWindow.Context context, IterableOrders elements, CollectorObject collector) throws Exception {Integer sum0;for (Orders element : elements) {sumsumelement.getOrder_amount();}collector.collect(商品ID为integer的总销售额为sum);}});ordersDataStreamSource.print(订单数据);process.print(商品销售额统计);增量聚合和全窗口函数的结合使用 在实际应用中我们往往希望兼具这两者的优点把它们结合在一起使用。Flink的Window API就给我们实现了这样的用法。 我们之前在调用WindowedStream的.reduce()和.aggregate()方法时只是简单地直接传入了一个ReduceFunction或AggregateFunction进行增量聚合。除此之外其实还可以传入第二个参数一个全窗口函数可以是WindowFunction或者ProcessWindowFunction。 // ReduceFunction与WindowFunction结合 public R SingleOutputStreamOperatorR reduce(ReduceFunctionT reduceFunctionWindowFunctionTRKW function) // ReduceFunction与ProcessWindowFunction结合 public R SingleOutputStreamOperatorR reduce(ReduceFunctionT reduceFunctionProcessWindowFunctionTRKW function) // AggregateFunction与WindowFunction结合 public ACCVR SingleOutputStreamOperatorR aggregate(AggregateFunctionTACCV aggFunctionWindowFunctionVRKW windowFunction)// AggregateFunction与ProcessWindowFunction结合 public ACCVR SingleOutputStreamOperatorR aggregate(AggregateFunctionTACCV aggFunction,ProcessWindowFunctionVRKW windowFunction)这样调用的处理机制是基于第一个参数增量聚合函数来处理窗口数据每来一个数据就做一次聚合等到窗口需要触发计算时则调用第二个参数全窗口函数的处理逻辑输出结果。需要注意的是这里的全窗口函数就不再缓存所有数据了而是直接将增量聚合函数的结果拿来当作了Iterable类型的输入。 具体实现代码如下 package com.zxl.Windows;import com.zxl.bean.Orders; import com.zxl.datas.OrdersData; import org.apache.commons.lang3.time.DateFormatUtils; import org.apache.flink.api.common.functions.AggregateFunction; import org.apache.flink.streaming.api.datastream.*; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction; import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.api.windowing.windows.TimeWindow; import org.apache.flink.util.Collector;public class WindowAggregateDemo {public static void main(String[] args) throws Exception {//创建Flink流处理执行环境StreamExecutionEnvironment environment StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1environment.setParallelism(1);//调用Flink自定义Source// TODO: 2024/1/6 订单数据DataStreamSourceOrders ordersDataStreamSource environment.addSource(new OrdersData());// TODO: 2024/1/9 根据商品ID分区KeyedStreamOrders, Integer keyedStream ordersDataStreamSource.keyBy(orders - orders.getProduct_id());// TODO: 2024/1/9 设置滚动事件时间窗口WindowedStreamOrders, Integer, TimeWindow windowedStream keyedStream.window(TumblingProcessingTimeWindows.of(Time.seconds(5)));// TODO: 2024/1/9 调用增量聚合和全量聚合DataStreamObject outputStreamOperator windowedStream.aggregate(// TODO: 2024/1/9 增量聚合new AggregateFunctionOrders, Integer, Integer() {Overridepublic Integer createAccumulator() {return 0;}Overridepublic Integer add(Orders orders, Integer o) {return orders.getOrder_amount() o;}Overridepublic Integer getResult(Integer o) {return o;}Overridepublic Integer merge(Integer o, Integer acc1) {return o acc1;}},// TODO: 2024/1/9 全量聚合new ProcessWindowFunctionInteger, Object, Integer, TimeWindow() {// TODO: 2024/1/9 参数说明分组key值窗口计时器,按照key分组后的数据收集器Overridepublic void process(Integer integer, ProcessWindowFunctionInteger, Object, Integer, TimeWindow.Context context, IterableInteger elements, CollectorObject collector) throws Exception {// TODO: 2024/1/9 窗口内同一个key包含的数据条数long count elements.spliterator().estimateSize();// TODO: 2024/1/9 窗口的开始时间long windowStartTs context.window().getStart();// TODO: 2024/1/9 窗口的结束时间long windowEndTs context.window().getEnd();String windowStart DateFormatUtils.format(windowStartTs, yyyy-MM-dd HH:mm:ss.SSS);String windowEnd DateFormatUtils.format(windowEndTs, yyyy-MM-dd HH:mm:ss.SSS);// TODO: 2024/1/9 输出收集器collector.collect(key integer 的窗口[ windowStart , windowEnd )包含 count 条数据 elements.toString());}});ordersDataStreamSource.print(聚合前的数据);outputStreamOperator.print(分组聚合后的数据);environment.execute();} }可以看到结果是统计的值而不是归并后的数据。 其他API 对于一个窗口算子而言窗口分配器和窗口函数是必不可少的。除此之外Flink还提供了其他一些可选的API让我们可以更加灵活地控制窗口行为。 触发器Trigger 触发器主要是用来控制窗口什么时候触发计算。所谓的“触发计算”本质上就是执行窗口函数所以可以认为是计算得到结果并输出的过程。 基于WindowedStream调用.trigger()方法就可以传入一个自定义的窗口触发器Trigger。 stream.keyBy(...).window(...).trigger(new Trigger())触发器抽象类具有四种抽象方法这些方法允许触发器对不同事件做出反应 onElement在窗口中每进入一条数据的时候调用一次 onProcessingTime根据窗口中最新的ProcessingTime判断是否满足定时器的条件如果满足将触发ProcessingTime定时器并执行定时器的回调函数即执行onProcessingTime方法里的逻辑 onEventTime根据窗口中最新的EventTim判断是否满足定时器的条件如果满足将触发EventTime定时器并执行定时器的回调函数即onEventTime方法里的逻辑 clear在窗口清除的时候调用前三个方法返回TriggerResult枚举类型其包含四个枚举值 CONTINUE表示对窗口不执行任何操作。即不触发窗口计算也不删除元素。 FIRE触发窗口计算但是保留窗口元素 PURGE不触发窗口计算丢弃窗口并且删除窗口的元素。 FIRE_AND_PURGE触发窗口计算输出结果然后将窗口中的数据和窗口进行清除。创建触发器 package com.zxl.Functions;import com.zxl.bean.Orders; import org.apache.flink.streaming.api.windowing.triggers.Trigger; import org.apache.flink.streaming.api.windowing.triggers.TriggerResult; import org.apache.flink.streaming.api.windowing.windows.TimeWindow;public class TriggerDemo extends TriggerOrders, TimeWindow {// TODO: 2024/1/10 定义销售总额为0;Integer sum 0;Overridepublic TriggerResult onElement(Orders orders, long l, TimeWindow window, TriggerContext ctx) throws Exception {// TODO: 2024/1/10 累加销售额超过100元触发计算sum orders.getOrder_amount();System.out.println(销售总额 sum);if (sum 100) {sum 0;return TriggerResult.FIRE_AND_PURGE;} else {ctx.registerProcessingTimeTimer(window.maxTimestamp());return TriggerResult.CONTINUE;}}Overridepublic TriggerResult onProcessingTime(long l, TimeWindow timeWindow, TriggerContext triggerContext) throws Exception {return TriggerResult.FIRE;}Overridepublic TriggerResult onEventTime(long l, TimeWindow timeWindow, TriggerContext triggerContext) throws Exception {return TriggerResult.CONTINUE;}Overridepublic void clear(TimeWindow window, TriggerContext ctx) throws Exception {ctx.deleteProcessingTimeTimer(window.maxTimestamp());} }package com.zxl.Windows;import com.zxl.Functions.TriggerDemo; import com.zxl.bean.Orders; import com.zxl.datas.OrdersData; import org.apache.flink.streaming.api.datastream.*; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction; import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.api.windowing.windows.TimeWindow; import org.apache.flink.util.Collector;public class WindowsTriggerDemo {public static void main(String[] args) throws Exception {//创建Flink流处理执行环境StreamExecutionEnvironment environment StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1environment.setParallelism(1);//调用Flink自定义Source// TODO: 2024/1/6 订单数据DataStreamSourceOrders ordersDataStreamSource environment.addSource(new OrdersData());// TODO: 2024/1/9 根据商品ID分区KeyedStreamOrders, Integer keyedStream ordersDataStreamSource.keyBy(Orders::getProduct_id);// TODO: 2024/1/9 设置滚动事件时间窗口WindowedStreamOrders, Integer, TimeWindow windowedStream keyedStream.window(TumblingProcessingTimeWindows.of(Time.seconds(10)));WindowedStreamOrders, Integer, TimeWindow trigger windowedStream.trigger(new TriggerDemo());DataStreamObject process trigger.process(new ProcessWindowFunctionOrders, Object, Integer, TimeWindow() {Overridepublic void process(Integer integer, ProcessWindowFunctionOrders, Object, Integer, TimeWindow.Context context, IterableOrders elements, CollectorObject collector) throws Exception {Integer sum0;for (Orders element : elements) {sumsumelement.getOrder_amount();}collector.collect(商品ID为integer的总销售额为sum);}});ordersDataStreamSource.print(订单数据);process.print(商品销售额统计);environment.execute();} }销售额满100触发计算 移除器Evictor 移除器主要用来定义移除某些数据的逻辑。基于WindowedStream调用.evictor()方法就可以传入一个自定义的移除器Evictor。Evictor是一个接口不同的窗口类型都有各自预实现的移除器。 stream.keyBy(...).window(...).evictor(new MyEvictor())Flink 内置有三个 evictor CountEvictor: 仅记录用户指定数量的元素一旦窗口中的元素超过这个数量多余的元素会从窗口缓存的开头移除 DeltaEvictor: 接收 DeltaFunction 和 threshold 参数计算最后一个元素与窗口缓存中所有元素的差值 并移除差值大于或等于 threshold 的元素。 TimeEvictor: 接收 interval 参数以毫秒表示。 它会找到窗口中元素的最大 timestamp max_ts 并移除比 max_ts - interval 小的所有元素。CountEvictor CountEvictor 用于在窗口中保留用户指定数量的元素。如果窗口中的元素超过用户指定的阈值会从窗口头部开始删除剩余元素。 package com.zxl.Windows;import com.zxl.Functions.EvictorDemo; import com.zxl.Functions.TriggerDemo; import com.zxl.bean.Orders; import com.zxl.datas.OrdersData; import org.apache.commons.lang3.time.DateFormatUtils; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.datastream.KeyedStream; import org.apache.flink.streaming.api.datastream.WindowedStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction; import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows; import org.apache.flink.streaming.api.windowing.evictors.CountEvictor; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.api.windowing.windows.TimeWindow; import org.apache.flink.util.Collector;public class WindowsEvictorDemo {public static void main(String[] args) throws Exception {//创建Flink流处理执行环境StreamExecutionEnvironment environment StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1environment.setParallelism(1);//调用Flink自定义Source// TODO: 2024/1/6 订单数据DataStreamSourceOrders ordersDataStreamSource environment.addSource(new OrdersData());// TODO: 2024/1/9 根据商品ID分区KeyedStreamOrders, Integer keyedStream ordersDataStreamSource.keyBy(Orders::getProduct_id);// TODO: 2024/1/9 设置滚动事件时间窗口WindowedStreamOrders, Integer, TimeWindow windowedStream keyedStream.window(TumblingProcessingTimeWindows.of(Time.seconds(10)));WindowedStreamOrders, Integer, TimeWindow trigger windowedStream.evictor(CountEvictor.of(2));DataStreamObject process trigger.process(new ProcessWindowFunctionOrders, Object, Integer, TimeWindow() {Overridepublic void process(Integer integer, ProcessWindowFunctionOrders, Object, Integer, TimeWindow.Context context, IterableOrders elements, CollectorObject collector) throws Exception {// TODO: 2024/1/9 窗口内同一个key包含的数据条数long count elements.spliterator().estimateSize();// TODO: 2024/1/9 窗口的开始时间long windowStartTs context.window().getStart();// TODO: 2024/1/9 窗口的结束时间long windowEndTs context.window().getEnd();String windowStart DateFormatUtils.format(windowStartTs, yyyy-MM-dd HH:mm:ss.SSS);String windowEnd DateFormatUtils.format(windowEndTs, yyyy-MM-dd HH:mm:ss.SSS);// TODO: 2024/1/9 输出收集器collector.collect(key integer 的窗口[ windowStart , windowEnd )包含 count 条数据 elements.toString());}});ordersDataStreamSource.print(订单数据);process.print(商品销售额统计);environment.execute();} }运行结果可以看到剔除了每个key的值只保留最后面的2个元素 订单数据 Orders{order_id1, user_id-1718527784045868614, order_date1704863683145, order_amount48, product_id0, order_num-6369094025414748042} 订单数据 Orders{order_id2, user_id1893667416148355553, order_date1704863684155, order_amount66, product_id1, order_num7668054511610210829} 订单数据 Orders{order_id3, user_id6270758312821279307, order_date1704863685156, order_amount24, product_id1, order_num-738706605235934490} 订单数据 Orders{order_id4, user_id-4650292127676605788, order_date1704863686170, order_amount52, product_id2, order_num4416123283706746554} 订单数据 Orders{order_id5, user_id8377505245371224820, order_date1704863687184, order_amount20, product_id1, order_num9054812173240955137} 订单数据 Orders{order_id6, user_id-1804262787948928277, order_date1704863688195, order_amount39, product_id2, order_num6974915230885280524} 订单数据 Orders{order_id7, user_id2755727732632294824, order_date1704863689209, order_amount29, product_id1, order_num5422281260531357789} 订单数据 Orders{order_id8, user_id-2106336677386318216, order_date1704863690209, order_amount2, product_id2, order_num-5138638189645891765} 商品销售额统计 key0的窗口[2024-01-10 13:14:40.000,2024-01-10 13:14:50.000)包含1条数据[Orders{order_id1, user_id-1718527784045868614, order_date1704863683145, order_amount48, product_id0, order_num-6369094025414748042}] 商品销售额统计 key2的窗口[2024-01-10 13:14:40.000,2024-01-10 13:14:50.000)包含2条数据[Orders{order_id4, user_id-4650292127676605788, order_date1704863686170, order_amount52, product_id2, order_num4416123283706746554}, Orders{order_id6, user_id-1804262787948928277, order_date1704863688195, order_amount39, product_id2, order_num6974915230885280524}] 商品销售额统计 key1的窗口[2024-01-10 13:14:40.000,2024-01-10 13:14:50.000)包含2条数据[Orders{order_id5, user_id8377505245371224820, order_date1704863687184, order_amount20, product_id1, order_num9054812173240955137}, Orders{order_id7, user_id2755727732632294824, order_date1704863689209, order_amount29, product_id1, order_num5422281260531357789}] 订单数据 Orders{order_id9, user_id1263718349205479033, order_date1704863691215, order_amount28, product_id2, order_num5580559753146164066}DeltaEvictor 根据用户自定的 DeltaFunction 函数来计算窗口中最后一个元素与其余每个元素之间的差值如果差值大于等于用户指定的阈值就会删除该元素。 package com.zxl.Windows;import com.zxl.bean.Orders; import com.zxl.datas.OrdersData; import org.apache.commons.lang3.time.DateFormatUtils; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.datastream.KeyedStream; import org.apache.flink.streaming.api.datastream.WindowedStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction; import org.apache.flink.streaming.api.functions.windowing.delta.DeltaFunction; import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows; import org.apache.flink.streaming.api.windowing.evictors.DeltaEvictor; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.api.windowing.windows.TimeWindow; import org.apache.flink.util.Collector;public class WindowsEvictorDemo {public static void main(String[] args) throws Exception {//创建Flink流处理执行环境StreamExecutionEnvironment environment StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1environment.setParallelism(1);//调用Flink自定义Source// TODO: 2024/1/6 订单数据DataStreamSourceOrders ordersDataStreamSource environment.addSource(new OrdersData());// TODO: 2024/1/9 根据商品ID分区KeyedStreamOrders, Integer keyedStream ordersDataStreamSource.keyBy(Orders::getProduct_id);// TODO: 2024/1/9 设置滚动事件时间窗口WindowedStreamOrders, Integer, TimeWindow windowedStream keyedStream.window(TumblingProcessingTimeWindows.of(Time.seconds(10)));WindowedStreamOrders, Integer, TimeWindow trigger windowedStream.evictor(DeltaEvictor.of(20, new DeltaFunctionOrders() {Overridepublic double getDelta(Orders orders, Orders data1) {return orders.getOrder_amount()-data1.getOrder_amount();}}));DataStreamObject process trigger.process(new ProcessWindowFunctionOrders, Object, Integer, TimeWindow() {Overridepublic void process(Integer integer, ProcessWindowFunctionOrders, Object, Integer, TimeWindow.Context context, IterableOrders elements, CollectorObject collector) throws Exception {// TODO: 2024/1/9 窗口内同一个key包含的数据条数long count elements.spliterator().estimateSize();// TODO: 2024/1/9 窗口的开始时间long windowStartTs context.window().getStart();// TODO: 2024/1/9 窗口的结束时间long windowEndTs context.window().getEnd();String windowStart DateFormatUtils.format(windowStartTs, yyyy-MM-dd HH:mm:ss.SSS);String windowEnd DateFormatUtils.format(windowEndTs, yyyy-MM-dd HH:mm:ss.SSS);// TODO: 2024/1/9 输出收集器collector.collect(key integer 的窗口[ windowStart , windowEnd )包含 count 条数据 elements.toString());}});ordersDataStreamSource.print(订单数据);process.print(商品销售额统计);environment.execute();} }运行结果可以看出key0的窗口只保留了销售额为74和61两个数据其他剔除。 订单数据 Orders{order_id1, user_id539439441883936825, order_date1704865045455, order_amount74, product_id0, order_num3206652734135370050} 订单数据 Orders{order_id2, user_id49231723398277166, order_date1704865046465, order_amount93, product_id0, order_num3160015635782687185} 订单数据 Orders{order_id3, user_id4323217335297892028, order_date1704865047479, order_amount86, product_id0, order_num-2693168188390272462} 订单数据 Orders{order_id4, user_id9114737657305455261, order_date1704865048479, order_amount61, product_id0, order_num6661679659763746532} 订单数据 Orders{order_id5, user_id-6666866686774977356, order_date1704865049488, order_amount87, product_id1, order_num-1684352545863963613} 订单数据 Orders{order_id6, user_id436130461891163880, order_date1704865050500, order_amount12, product_id1, order_num-4339619073044213208} 商品销售额统计 key0的窗口[2024-01-10 13:37:20.000,2024-01-10 13:37:30.000)包含2条数据[Orders{order_id1, user_id539439441883936825, order_date1704865045455, order_amount74, product_id0, order_num3206652734135370050}, Orders{order_id4, user_id9114737657305455261, order_date1704865048479, order_amount61, product_id0, order_num6661679659763746532}] 商品销售额统计 key1的窗口[2024-01-10 13:37:20.000,2024-01-10 13:37:30.000)包含1条数据[Orders{order_id5, user_id-6666866686774977356, order_date1704865049488, order_amount87, product_id1, order_num-1684352545863963613}] 订单数据 Orders{order_id7, user_id-555269566023654623, order_date1704865051511, order_amount80, product_id2, order_num-4610465301102922149}TimeEvictor 以毫秒为单位的时间间隔 windowSize 作为参数在窗口所有元素中找到最大时间戳 max_ts 并删除所有时间戳小于 max_ts - windowSize 的元素。我们可以理解为只保留最新 windowSize 毫秒内的元素。 package com.zxl.Windows;import com.zxl.bean.Orders; import com.zxl.datas.OrdersData; import org.apache.commons.lang3.time.DateFormatUtils; import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner; import org.apache.flink.api.common.eventtime.WatermarkStrategy; import org.apache.flink.streaming.api.datastream.*; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction; import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows; import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows; import org.apache.flink.streaming.api.windowing.evictors.TimeEvictor; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.api.windowing.windows.TimeWindow; import org.apache.flink.util.Collector;import java.time.Duration;public class WindowsEvictorDemo {public static void main(String[] args) throws Exception {//创建Flink流处理执行环境StreamExecutionEnvironment environment StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1environment.setParallelism(1);//调用Flink自定义Source// TODO: 2024/1/6 订单数据DataStreamSourceOrders ordersDataStreamSource environment.addSource(new OrdersData());// TODO: 2024/1/7 配置订单数据水位线DataStreamOrders ordersWater ordersDataStreamSource.assignTimestampsAndWatermarks(WatermarkStrategy// TODO: 2024/1/7 指定watermark生成升序的watermark没有等待时间.OrdersforBoundedOutOfOrderness(Duration.ofSeconds(0)).withTimestampAssigner(new SerializableTimestampAssignerOrders() {Overridepublic long extractTimestamp(Orders orders, long l) {return orders.getOrder_date();}}));// TODO: 2024/1/9 根据商品ID分区KeyedStreamOrders, Integer keyedStream ordersWater.keyBy(Orders::getProduct_id);// TODO: 2024/1/9 设置滚动事件时间窗口WindowedStreamOrders, Integer, TimeWindow windowedStream keyedStream.window(TumblingEventTimeWindows.of(Time.seconds(30)));WindowedStreamOrders, Integer, TimeWindow evictor windowedStream.evictor(TimeEvictor.of(Time.seconds(5)));DataStreamObject process evictor.process(new ProcessWindowFunctionOrders, Object, Integer, TimeWindow() {Overridepublic void process(Integer integer, ProcessWindowFunctionOrders, Object, Integer, TimeWindow.Context context, IterableOrders elements, CollectorObject collector) throws Exception {// TODO: 2024/1/9 窗口内同一个key包含的数据条数long count elements.spliterator().estimateSize();// TODO: 2024/1/9 窗口的开始时间long windowStartTs context.window().getStart();// TODO: 2024/1/9 窗口的结束时间long windowEndTs context.window().getEnd();String windowStart DateFormatUtils.format(windowStartTs, yyyy-MM-dd HH:mm:ss.SSS);String windowEnd DateFormatUtils.format(windowEndTs, yyyy-MM-dd HH:mm:ss.SSS);// TODO: 2024/1/9 输出收集器collector.collect(key integer 的窗口[ windowStart , windowEnd )包含 count 条数据 elements.toString());}});ordersDataStreamSource.print(订单数据);process.print(商品销售额统计);environment.execute();} }
http://www.w-s-a.com/news/237699/

相关文章:

  • 建设网站是普通办公吗快速排名seo软件
  • 大型外贸网站建设网站建设图片尺寸要求
  • 网站建设可信赖北京网站开发月薪
  • 专门做lolh的网站wordpress 模版 cho's
  • 网上做设计兼职哪个网站好点网站开发毕业周记
  • 自学商城网站建设无为网页定制
  • wordpress全站cdn手机网站调用分享
  • 淄博做网站58同城wordpress微信号订阅
  • 不同的网站 做301公共资源交易中心是干嘛的
  • 36 氪 网站如何优化怎么优化自己的网站
  • 网站兼容问题湖北网站建设优化
  • 2018新网站做外链app制作的网站
  • 外贸网站建设怎么建设pc网站做移动端适配
  • 做经销找厂家好的网站个人备案网站可以做电影站吗
  • 网站搭建怎么做网站建设培训哪家好
  • 学做美食的视频网站企业网站备案密码怎么找回
  • 销售产品做单页还是网站seo有哪些作用
  • 网站视觉规范南宁网站优化推广
  • 公司起名打分最准的免费网站学设计的学校
  • 用cn作网站行么WordPress网站打不开nginx
  • 顺德龙江网站建设百货商城自助下单网站
  • 门户网站采用较多的模式是wordpress自动搜索缩略图
  • 深圳设计功能网站做网站推广怎么做
  • 海口专业网站建设地址wordpress站点标题是什么
  • 青岛做网站那家好网页素材网
  • 宁夏银川做网站的公司网络营销有哪些推广方法
  • 免费域名网站哪个最好东莞企业网站排名
  • dz做网站网址模版
  • 做外贸网站平台中华室内设计师网
  • 三大网络架构seo是啥职业