buffers 过多

【详述】实时关联starrocks,写入starrocks
【背景】flink -connector-starrocks ,读写starrocks,报错如下。实时关联starrocks,写入starrocks
【已调整】并行度为1
【StarRocks版本】例如:3.0.2
【集群规模】例如:3FE 、9BE
报错信息:
When there are multiple buffers, an unfinished bufferConsumer can not be at the head of the buffers queue.

scan 配置
‘scan.max-retries’ = ‘3’,
‘scan.connect.timeout-ms’=‘10000’,
‘scan.params.keep-alive-min’ = ‘60’,
‘scan.params.mem-limit-byte’ = ‘10737418240’,

sink 配置
‘sink.max-retries’ = ‘3’,
‘sink.connect.timeout-ms’=‘10000’,
‘sink.buffer-flush.max-rows’ = ‘500000’,
‘sink.buffer-flush.max-bytes’ = ‘300000000’,
‘sink.buffer-flush.interval-ms’ = ‘3000’,

【业务及技术场景】
订单表关联线上订单表,两个表都存储在starrocks中,以维度关联的形式,主流消费kafka数据,关联维度表线上订单表的数据。写入另一个starrocks表。并在大屏展示。写入时延越小越好,目前是3s报这个错误

写入sr的数据量 3秒 大概有多少条数据,多大的数据量

不超过50w、或者我是不是需要优化这两个参数才能写入?