starrocks fe内存每日增长

【详述】问题详细描述
近期发现,fe节点的内存每天都在不断增长(leader节点差不多1G/日的速度),无论是fe leader还是follower都在不断增长
【背景】做过哪些操作?
最近新上了几个kafka的routine load task任务
【业务影响】
目前fe内存有限,如果涨到配置的阈值就要手动重启fe,影响线上的任务查询;
【是否存算分离】

【StarRocks版本】
2.3.16
【集群规模】
3fe + 4be,分开部署
【机器信息】
fe:8c/16g,be:16c/64g
【联系方式】
社区群15-老张
【附件】

监控 FE JVM 24小时截图看看
show proc ‘/statistic’ ReplicaNum total是多少


感觉不算多吧

10万不多,jvm默认是8G,fe leader用到8G内存也是正常,主要看old 的监控 如果正常就ok

我这fe配置的是24G,但是按照这个速度下去,过不到多久就会涨到24G了,这样也正常吗?之前都没这种现象,之前是一直维持一个比较平衡的值的

fe:8c/16g,be:16c/64g FE不是16G吗 配置24G?

升级2.5.14吧,会解决FE内存泄漏的问题

这个能断定是内存泄漏的问题吗?或者有什么办法可以定位的,如果定位到了是这个问题,那我们线上是可以把版本升一下的;还有就是2.5.14之前的版本都存在内存泄漏的问题吗?

嗯 FE有一些内存泄漏的问题,2.5.14都已经修复了。
就是内存回收很少就是有内存泄漏,至于哪些地方泄漏这个有点深入,可以用jmap -histo[:live] pid > jmap.dump 来判断,注意执行时可能会影响FE。

jmap -histo[:live] pid > jmap.dump,这个执行有啥影响?是会让fe挂掉吗?

我目前版本是3.1.5,也遇到这个问题,这个是 jmap 后的内存情况jmap.log.tar.gz (127.7 KB)

leader 节点使用的内存也在持续增长么?可以单开个帖子补充下以下信息:fe.conf 中的 jvm 配置,fe节点的配置,fe be是否混部,fe leader 节点的fe.gc.log

已创建,在这 Fe 节点内存每日增长 , 辛苦帮忙看下?

老师出现这个问题怎么处理?