【StarRocks版本】2.3.8
在sr中查询hive外表报错如下:
这个报错是偶发性的,时好时坏,有的时候可以正常查询出数据,有的时候就报上图的错误,请问这是什么原因,如何解决?
cat /proc/$be_pid/limits看下是不是Max processes是不是比较小,是的话,ulimit调大重启下be再试下
您那边有be内存的监控吗
报错时,看be内存没啥问题呢
1.BE 配置 be.conf 中的 mem_limit =总内存- fe jvm大小-hive外表访问内存-2g(系统预留),给访问hive外表预留10g
2.修改 be/conf/hadoop_env.sh 添加
export LIBHDFS_OPTS="-Xmx10240m -Xloggc:$STARROCKS_HOME/log/be.gc.log"
可以限制 libhdfs 的内存使用
这样配置下再验证下
关于be的进程内存,还有点疑问,文档中如下表述:
没有用,还是报错。
重新打下memtracker 看current这一列
麻烦确认下每台机器都试试能不能访问namenode ?
ping namenode所在的ip地址吗?
找到问题了,新加机器少了一个hdfs-site.xml配置文件,感谢支持。