数据库内核那些事|细说PolarDB优化器查询变换 - Join条件下推篇
数据库的查询优化器是整个系统的"大脑",一条SQL语句执行是否高效在不同的优化决策下可能会产生几个数量级的性能差异,因此优化器也是数据库系统中最为核心的组件和竞争力之一。阿里云瑶池旗下的云原生数据库PolarDB MySQL版作为领先的云原生数据库,希望能够应对广泛用户场景、承接各类用户负载,助力企业数据业务持续在线、数据价值不断放大,因此对优化器能力的打磨是必须要做的工作之一。
本系列将从PolarDB for MySQL的查询变换能力开始,介绍我们在这个优化器方向上逐步积累的一些工作。
*本篇为「PolarDB优化器查询变换」系列第三篇,前两篇内容分别解读了:
引言
在数据库的查询优化特性中,基于关系代数的等价变换一直是一个比较有挑战但又收益较高的方向,也就是我们常说的查询变换。很多变换可以在严格验证不存在性能回退的情况下做到启发式应用(无脑变换),从而对性能产生巨大提升,一般是1~2个数量级。如本专题前文列举的Join消除,就是启发式应用的例子。
而利用MySQL 8.0的窗口函数对相关子查询做展开,在满足特定前提条件下,也可以实现无回退的性能收益,具体可以参考《数据库内核那些事|细说PolarDB优化器查询变换-窗口函数篇》,基于window function的解相关让PolarDB TPC-H Q2/Q17的性能提升了很多倍。
但这里其实还有更优的解法:
http://oysteing.blogspot.com/2021/05/transformations-of-correlated-scalar.html
之前SQL团队资深的优化器架构师Oystein在对Q17的分析中,提到了一种基于Lateral derived table的变换方案,可以做到更稳定的性能表现和更高的加速比:
SELECT SUM(l_extendedprice) / 7.0 AS avg_yearly
FROM lineitem
JOIN part ON p_partkey = l_partkey
WHERE p_brand = 'Brand#34'
AND p_container = 'MED BOX'
AND l_quantity < (
SELECT 0.2 * AVG(l_quantity)
FROM lineitem
WHERE l_partkey = p_partkey
);
上图中Q17big是修改了外层查询中对于part表的选择率,而Table push-down是一个类似窗口函数的方案。可以看到这里LATERAL的性能在两种情况下都是最优的,那么这个LATERAL的变换是什么样的呢?
SELECT SUM(l_extendedprice) / 7.0 AS avg_yearly
FROM lineitem
JOIN part ON p_partkey = l_partkey
JOIN LATERAL((
SELECT 0.2 * AVG(l_quantity)
FROM lineitem
WHERE l_partkey = p_partkey
)) AS ldt (avg_qty)
WHERE p_brand = 'Brand#34'
AND p_container = 'MED BOX'
AND l_quantity < avg_qty;
这里产生了一个JOIN LATERAL,和一个带有相关性的derived table ldt,对应的执行计划:
可能从原始的Q17一下跳转到这样一个计划有些不好理解,我们分步来看下:
- 基于原始的相关子查询,第一步是转换为一个带有group by条件的derived table: pq(avg_qty, pk),再与外层的part表/lineitem表做Join,由于相关条件作为group by列,因此对外层的每一行数据,derived table只会有对应分组的数据参与Join和过滤计算,保证了和原来相关子查询结果的一致性。但这里有一个问题:
pq这张derived table,需要对lineitem表做全表扫描,然后完成聚集计算并一次性物化。
考虑到lineitem是TPC-H中最大数据量的表,这种解相关的方式不一定会保证性能可以更优,这个变换PolarDB已经实现,但默认并不是开启的。
- 第二步将pq.pk = l_partkey这个Join条件,进一步下推到pq这个derived table中,就变成了前面给出的lateral derived table的形式,相当于在左侧变换的基础上,下推了Join条件,这产生了以下三方面变化:
1. 内层增加了过滤条件 l_partkey=p_partkey,可能可以使用索引,过滤掉lineitem的大量数据;
2. 由于下推条件覆盖group by的所有字段,每次对外层一行数据,内层总是针对特定分组的数据做计算,group by已经不再需要,可以消除;
3. ldt表是要反复物化的,但如果它所依赖的part表数据量相对很少,则即使反复物化也比一次全量物化的成本更低。
基于上面这三方面因素,这种变换带来了很大的性能提升,比window function的变换更大,但也能看到这里有很多不确定因素,也就是说这并不是一个启发式的无脑变换,需要基于代价决定。
由于实现的复杂度也较高,一开始并不在短期的研发计划中。但后来在线上的客户中遇到了如下实际问题:
SELECT *
FROM (
SELECT *
FROM db_order.tb_order
WHERE create_date >= DATE_SUB(CAST('xxxx' AS datetime), INTERVAL 5 MINUTE)
AND product_type IN (?, ?)
) o
LEFT JOIN (
...
) od
ON o.order_id = od.order_id
LEFT JOIN (
SELECT t.*, row_number() OVER (PARTITION BY detail_id ORDER BY update_date DESC) AS rn
FROM db_order.tb_order_sku t
WHERE update_date >= DATE_SUB('xxxx', INTERVAL 50 MINUTE)
AND coalesce(product_type, 'xx') <> '?'
) os
ON od.id = os.detail_id
...
查询做了大量简化和模糊,但总体问题是:对于os这个derived table,由于内层表tb_order_sku的数据量很大而且没有合适的索引,需要做大量的聚集计算和物化大量数据。通过反复尝试优化,给出了这样的手动改写:
SELECT *
FROM (
...
) o
LEFT JOIN (
...
) od
ON o.order_id = od.order_id
LEFT JOIN LATERAL((
SELECT t.*, row_number() OVER (PARTITION BY detail_id ORDER BY update_date DESC) AS rn
FROM db_order.tb_order_sku t
WHERE update_date >= DATE_SUB('2022-12-05 15:12:05', INTERVAL 50 MINUTE)
AND coalesce(product_type, '0') <> '5'
AND od.id = detail_id
)) os;
可以看到将Join条件下推了进去,变成了lateral join,性能从60s+提升到0.5s。
正是由于线上客户的实际需求,推动我们实现了这个基于代价的Join条件下推变换。
Join Predicate Pushdown
最早看到这个优化功能,是在Oracle著名的CBQT Paper中,关于这篇文章的解读有很多,笔者也写过一篇《henry liang:Cost-based query transformation in Oracle》。(内容详见:https://zhuanlan.zhihu.com/p/372430733)
里面的一个章节介绍了这个优化:Join Predicate PushDown(JPPD),虽然篇幅不多,但还是非常准确的切中了变换的核心:
适用条件
在查询中存在derived table和外层表的Join,并且采用了nested loop join的方式,此外在Join列在derived table的内层,有适当的索引可以使用来加速对内层表的物化计算,并且有准确的统计信息支撑,确保下推后可以在内层过滤大量的数据。
为什么需要是nested loop join,因为对外层的每一行数据,都需要能触发内层表的重新物化,这个过程发生在外层读取每一行数据时,但如果是hash join,不仅要反复物化还要反复构建hash table,从iterator的迭代模型上触发模式也不合理(破坏了一侧先build,另一侧再probe的流程)。
收益条件
在满足适用条件的前提下,我们记外层表的数据量为N,内层的原数据量是M,内层基于Join条件下推后的数据量是m,那大致的计算公式如下:
下推前:
下推后:
下推前 > 下推后,即可保证可以产生更优的执行计划。
实现方案
很明显,这是一个需要基于代价决策的变换。虽然实现有些复杂,但思路还是比较朴素的:
1. 在先进行的derived table内层优化的过程中:
● 完成内层derived table的Join Ordering优化,获取非下推情况下的全量物化代价;
● 判断是否适合做JPPD,如果适合则打上标记,并收集这种潜在的candidate。
2. 返回到外层优化过程中,基于与该candidate derived table的Join条件,构建相关的优化结构,并传递到derived table的内层,构建内部针对下推join条件的相关优化结构。
3. 外层开始Join Ordering枚举时,对于潜在下推的derived table,保留其原有的Join Plan,基于新构建的下推条件优化结构,重新做Join Ordering优化,看是否可以选中下推条件所对应的索引,如果选中说明内层产生了适合的候选计划,没有选中则恢复原有的Join Plan。
4. 如果选中,调整derived table在外层的输出行数+物化代价,继续参与到外层的枚举过程中。
5. 最终外层选中的最优Join计划中,如果对于derived table就是选择了下推后的新plan,说明新的优化策略基于代价被选中。
6. 在外层构建物理执行结构时,也将条件推入derived table内层并构建相关执行结构,建立依赖关系,消除不必要的group by条件等。
用流程图描述和一个例子可能更清晰些:
可以看到,这里会在外层做Join Ordering的过程中,反复枚举内层可能的新Join Plan,如果内层查询比较大这个开销也是不可接受的,因此对内层计划也需要一个caching机制,在于外层可能的关联表和关联索引的情况下,最优计划被保留下来,后续如果还是同样的依赖关系,虽然所处的外层Join顺序变化了(枚举过程中),内层计划还是可以复用的。
同时如果内层的group by列,完全可以被下推的Join条件所覆盖,那就可以保证对外层每一行,内层选中的数据都是同一个分组的数据,group by就可以消除掉了,避免不必要的分组计算(但前提要有聚集函数,否则group by带来的去重效果就没有了,导致不正确的结果)。
实际效果
我们仍以TPC-H Q17来看,使用10s的数据量串行执行,原始查询:
EXPLAIN
SELECT SUM(l_extendedprice) / 7.0 AS avg_yearly
FROM lineitem
JOIN part ON p_partkey = l_partkey
WHERE p_brand = 'Brand#34'
AND p_container = 'MED BOX'
AND l_quantity < (
SELECT 0.2 * AVG(l_quantity)
FROM lineitem
WHERE l_partkey = p_partkey
);
执行计划是:
| -> Aggregate: sum(lineitem.L_EXTENDEDPRICE)
-> Nested loop inner join (cost=779599.70 rows=511050)
-> Filter: ((part.P_CONTAINER = 'MED BOX') and (part.P_BRAND = 'Brand#34')) (cost=217445.20 rows=19743)
-> Table scan on part (cost=217445.20 rows=1974262)
-> Filter: (lineitem.L_QUANTITY < (select #2)) (cost=25.89 rows=26)
-> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY) (cost=25.89 rows=26)
-> Select #2 (subquery in condition; dependent)
-> Aggregate: avg(lineitem.L_QUANTITY)
-> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY) (cost=28.47 rows=26)
可以看到,针对外层lineitem的每行数据,内层都要执行一遍,虽然使用了LINEITEM_FK2这个索引,但执行方式是固化的。
执行时间 3.49s
如果单独开启针对标量子查询转为derived table的变化,计划为:
| -> Aggregate: sum(lineitem.L_EXTENDEDPRICE)
-> Nested loop inner join
-> Nested loop inner join (cost=722658.72 rows=511050)
-> Filter: ((part.P_CONTAINER = 'MED BOX') and (part.P_BRAND = 'Brand#34')) (cost=202430.95 rows=19743)
-> Table scan on part (cost=202430.95 rows=1974262)
-> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY) (cost=23.76 rows=26)
-> Filter: (lineitem.L_QUANTITY < derived_1_2.Name_exp_1)
-> Index lookup on derived_1_2 using <auto_key2> (Name_exp_2=part.P_PARTKEY)
-> Materialize
-> Group aggregate: avg(lineitem.L_QUANTITY)
-> Index scan on lineitem using LINEITEM_FK2 (cost=5896444.53 rows=54300917)
可以看到,子查询做了全量物化后,与外层查询进行Join,Join顺序是part -> lineitem -> dt
执行时间太长中间就kill了。
但如果加入JPPD的优化,就可以生成如文章开头所产生的最优计划:
| -> Aggregate: sum(lineitem.L_EXTENDEDPRICE)
-> Nested loop inner join
-> Nested loop inner join
-> Invalidate materialized tables (row from part) (cost=202430.95 rows=19743)
-> Filter: ((part.P_CONTAINER = 'MED BOX') and (part.P_BRAND = 'Brand#34')) (cost=202430.95 rows=19743)
-> Table scan on part (cost=202430.95 rows=1974262)
-> Index lookup on derived_1_2 using <auto_key2> (Name_exp_2=part.P_PARTKEY)
-> Materialize (invalidate on row from part)
-> Group aggregate: avg(lineitem.L_QUANTITY)
-> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY) (cost=9.06 rows=26)
-> Filter: (lineitem.L_QUANTITY < derived_1_2.Name_exp_1) (cost=6.47 rows=9)
-> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY) (cost=6.47 rows=26)
可以看到L_PARTKEY=part.P_PARTKEY这个外层Join条件被下推了,然后和part表先做Lateral Join,最后与Lineitem Join,与预期一致。
执行时间 1.05s
而线上客户的案例更是从60+s ,缩减到了0.5s,可以说效果非常明显。
总结
针对上面给出的TPC-H Q17,大家可能有一个疑问,既然这个转换并不一定是更优的,虽然结合JPPD可以产生最优计划,但却无法默认把它打开,这不是矛盾么?确实如此,这也是我们在做的另外一个更为重要的工作:Cost-based query transformation所要解决的问题。
CBQT的核心是要建立一个枚举框架,在这个框架中,各种变换规则可以不用固化的加入到codebase中,而是基于基于代价决定每个变换是否完成,并考虑变换之间的关联性,使某些变换可以相互应用、反复应用,同时在过程中最小化重复优化所带来的额外开销(统计信息的重新估计、query block的重新优化等),在时间+空间与计划最优性之间取得一个合理的tradeoff。
优化器的开发工作是一个持续积累的过程,虽然各个特性看起来是case by case,但逐渐积累就会最终产生质变,而我们能做的就是在客户需求的导向下,针对每一个功能特性深入挖掘,尽可能适用更多的场景,产生尽量优的效果。
文章转载自公众号:阿里云瑶池数据库