flink使用steamload导入数据至sr存在数据丢失情况

【详述】我们现在用flink批量保存数据,刚开始运行,保存没问题,等运行一段时间之后数据存在丢失情况
【背景】相同数据保存到hbase和sr里面,



【StarRocks版本】例如:2.3
【集群规模】例如:1fe+1be测试环境,正式环境3be
【表模型】明细模型
【导入或者导出方式】Flink,flink-connector-starrocks版本1.2.3_flink-1.13_2.12,sink.buffer-flush.interval-ms:180000,sink.buffer-flush.max-rows:500000,sink.buffer-flush.max-bytes:94371840

可能是部分数据还没flush过来,可以把flush.interval-ms:180000适当调小点看看,改为10000看看呢

改了,之后还是有问题,请问会和我们动态flush表的数量多有关系吗

我这边 3.1.3版本,写入8个表也存在丢失数据问题