insert的时候分区数量过大会导致sink算子特别消耗内存 分区>1000

为了更快的定位您的问题,请提供以下信息,谢谢
【详述】insert的时候分区数量过大会导致sink算子特别消耗内存 分区>1000,写入了一个60G的5000W表 含有bitmap和json相关数据,单行数据量不是很大,前面有一个聚合算子 排查到最后sink的时候内存压力特别大 单任务单节点峰值30G往上了,之前写数据湖的场景也有类似的问题 如果多个分区写入资源消耗比较大,sink算子后续会考虑优化多个分区的etl写入吗?
【业务影响】
【是否存算分离】
【StarRocks版本】3.3.12