cte优化后执行时长不变

为了更快的定位您的问题,请提供以下信息,谢谢
【详述】问题详细描述
具体的执行计划先不贴了 比较普遍这个问题 如果需要的话 可以回复一下 需要哪些信息 我会再补充
猜测可能是调度时是串行的?
按道理下游可以并行读上游的, pipeline的执行模型, 上游产生了数据, 下游可以并行拉上游吧, 消费进度可以各自维护.
我们现在的场景一张表会被扫描100多次做不同的维度聚合, 现在io会非常高, 但是合并了之后, 也是很慢, 请问这个问题怎么解决呢?

【背景】做过哪些操作?
【业务影响】
【是否存算分离】
【StarRocks版本】例如:3.2.11
【集群规模】例如:3fe(3 follower+0observer)+3be(fe与be混部)
【机器信息】CPU虚拟核/内存/网卡,例如:16C/64G/万兆
【联系方式】为了在解决问题过程中能及时联系到您获取一些日志信息,请补充下您的联系方式,例如:社区群16-可乐鸡或者邮箱,谢谢
【附件】

  • fe.log/beINFO/相应截图
  • 慢查询:
    • Profile信息
    • 并行度:show variables like ‘%parallel_fragment_exec_instance_num%’;
    • pipeline是否开启:show variables like ‘%pipeline%’;
    • be节点cpu和内存使用率截图
  • 查询报错:
  • be crash
    • be.out
  • 外表查询报错
    • be.out和fe.warn.log