
回复
作者 | antigeneral了呀
来源 | 大数据羊说(ID:young_say)
转载请联系授权(微信ID:___antigeneral)
大家好,我是老羊,今天我们来学习 Flink SQL 中的 TopN、Order By、Limit 3个操作。
支持 Batch\Streaming,但在实时任务中一般用的非常少。
实时任务中,Order By 子句中必须要有时间属性字段,并且时间属性必须为升序时间属性,即 WATERMARK FOR rowtime_column AS rowtime_column - INTERVAL '0.001' SECOND
或者 WATERMARK FOR rowtime_column AS rowtime_column
。
举例:
支持 Batch\Streaming,但实时场景一般不使用,但是此处依然举一个例子:
结果如下,只有 3 条输出:
某个排序
条件,计算某个分组
下的排行榜数据
ROW_NUMBER()
:标识 TopN 排序子句PARTITION BY col1[, col2...]
:标识分区字段,代表按照这个 col 字段作为分区粒度对数据进行排序取 topN,比如下述案例中的partition by key
,就是根据需求中的搜索关键词(key)做为分区ORDER BY col1 [asc|desc][, col2 [asc|desc]...]
:标识 TopN 的排序规则,是按照哪些字段、顺序或逆序进行排序WHERE rownum <= N
:这个子句是一定需要的,只有加上了这个子句,Flink 才能将其识别为一个 TopN 的查询,其中 N 代表 TopN 的条目数[AND conditions]
:其他的限制条件也可以加上输入数据为搜索词条数据的搜索热度数据,当搜索热度发生变化时,会将变化后的数据写入到数据源的 Kafka 中:
数据源 schema:
输出结果:
可以看到输出数据是有回撤数据的,为什么会出现回撤,我们来看看 SQL 语义。
上面的 SQL 会翻译成以下三个算子:
数据源
:数据源即最新的词条下面的搜索词的搜索热度数据,消费到 Kafka 中数据后,按照 partition key 将数据进行 hash 分发到下游排序算子,相同的 key 数据将会发送到一个并发中排序算子
:为每个 Key 维护了一个 TopN 的榜单数据,接受到上游的一条数据后,如果 TopN 榜单还没有到达 N 条,则将这条数据加入 TopN 榜单后,直接下发数据,如果到达 N 条之后,经过 TopN 计算,发现这条数据比原有的数据排序靠前,那么新的 TopN 排名就会有变化,就变化了的这部分数据之前下发的排名数据撤回(即回撤数据),然后下发新的排名数据数据汇
:接收到上游的数据之后,然后输出到外部存储引擎中上面三个算子也是会 24 小时一直运行的。