broker load 任务失败

【StarRocks版本】2.5.12

【集群规模】4fe(3 follower+1observer)+4be(fe与be混部)

【机器信息】CPU虚拟核/内存/网卡,例如:256C/1024G/万兆

broker load 报下列错误:

type:LOAD_RUN_FAIL; msg:Memory of process exceed limit. Start execute plan fragment. Used: 1020005036352, Limit: 876327045488. Mem usage has exceed the limit of BE backend:172.20.192.71

第二问题是: be挂一个节点 所有的broker load都会失败, 有办法不失败,继续执行?

调哪些参数,能把集群资源用满,最快的速度导入集群?

ROUTINE LOAD 也都失败了

Primary-key index exceeds the limit. tablet_id: 10056, consumption: 450161258840, limit: 525796227292. Memory stats of top five tablets: 28669109(99M)28669205(99M)28669157(99M)28662981(99M)28669145(99M): be:172.20.192.71

这个看着是超过主键模型索引的内存限制了,一般是因为主键模型没有分区或者一次导入了大量分区的数据导致,建议主键模型分区或者挂载ssd盘开启主键索引落盘可降低内存使用。

broker load是一次导入多大的数据?

主键模型索引的内存限制, 怎么放开限制,怎么加大内存,是更改哪个参数?

“enable_persistent_index” = “true” 落盘的开关是 打开的

be的参数,update_memory_limit_percent默认60(60%),可以调大,不过核心还是主键模型要有分区,因为索引加载是按照数据导入所涉及的分区对应的tablet 索引,没有分区就按照全表tablet索引来加载了,另外确认是否所有表都开启了索引落盘。

都开启了, 索引落盘,数据实在太大。有500亿+,现在已经换成个 UNIQUE KEY 更新模型, 现在遇到的问题是,routine load 任务太多,kafka的数据过多,就到导致be内存不断增加,导致be挂掉