be进程报Reached timeout=30000ms

为了更快的定位您的问题,请提供以下信息,谢谢
【详述】问题详细描述
【背景】做过哪些操作?
【业务影响】
【是否存算分离】
【StarRocks版本】例如:2.5.10
【集群规模】3fe(1 follower+2observer)+3be(单台fe与be混部)
【机器信息】48C/128G/万兆
【联系方式】社区群4-汤米
{“Status”:“Fail”,“BeginTxnTimeMs”:3,“Message”:"[E1008]Reached timeout=30000ms @192.168.10.155:8060",“NumberUnselectedRows”:0,“CommitAndPublishTimeMs”:0,"
Label":“6839f447-cf60-4cc4-8951-0991b2cc29bc”,“LoadBytes”:2187451,“StreamLoadPlanTimeMs”:13,“NumberTotalRows”:0,“WriteDataTimeMs”:48885,“TxnId”:52717247,
“LoadTimeMs”:48902,“ReadDataTimeMs”:7,“NumberLoadedRows”:0,“NumberFilteredRows”:0}

想知道如何定位该问题?目前看完了所有类似问题无效,集群状态正常,另外则个timeout参数是哪个官网找了并没有,求解答

麻烦去到155这台机器先grep搜下 ‘ 52717247 ’ 关键字 拿出来所有信息

您好麻烦查看一下

closeWaitTime 麻烦再搜下这个关键字

请问是使用flink-connector 事务导入数据到主键模型出现的该问题么?

是的 有什么参数可以优化的么

看起来是刷盘慢了,调大be的参数flush_thread_num_per_store,默认2,可以调大到3或者4,需要同时观察磁盘的io负载

这个参数改成 8 /16 还是会出现这个问题 是要调小么?

当前是8

另外问下这个是不是和FLnik写入并行度速率都有关系 并行度分别开了15 和 3好像区别不大

请问下最近还有出现这个问题吗

大佬 这个参数调整为8也没什么效果啊
version: 3.2.2-269e832
报错信息和上面一致

方便加微信沟通下吗

我这边也遇到了相同的情况,设置为flush_thread_num_per_store=8,依旧有 Reached timeout=30000ms,请问有解决方案了么?

我也是是kafka的 Routine Load报这个错