hudi hive catalog 查询数据导致be节点宕机

【详述】ERROR: Backend not found. Check if any backend is down or not
根据官方部署完SR之后在MySql Client中执行如下脚本导致be节点宕机

be节点宕机操作1

REATE EXTERNAL CATALOG hudi_catalog_hms
PROPERTIES
(
“type” = “hudi”,
“hive.metastore.uris” = “thrift://bigdata02:9083”
);
SHOW DATABASES FROM hudi_catalog_hms;
use hudi_catalog_hms.alpha_test;
select * from t314 ;

be节点宕机 操作2

CREATE EXTERNAL CATALOG hive_catalog_hms
PROPERTIES
(
“type” = “hive”,
“hive.metastore.uris” = “thrift://bigdata02:9083”
);
select * from hive_catalog_hms.default.person;

be节点宕机 操作3

CREATE EXTERNAL RESOURCE “hudi0”
PROPERTIES (
“type” = “hudi”,
“hive.metastore.uris” = “thrift://bigdata02:9083”
);

SHOW RESOURCES;

DROP RESOURCE "hudi0";

CREATE DATABASE hudi_test; 
USE hudi_test; 

CREATE EXTERNAL TABLE `hudi_t314` ( 
    `id` int NULL, 
    `ts` int NULL ,
    `num` int NULL
    ) ENGINE=HUDI 
    PROPERTIES ( 
    "resource" = "hudi0", 
    "database" = "alpha_test", 
    "table" = "t314" 
); 

环境变量:

set java environment
JAVA_HOME=/home/module/jdk1.8.0_333
JRE_HOME=/home/module/jdk1.8.0_333/jre
CLASS_PATH=$JAVA_HOME/lib/
PATH=$PATH:$JAVA_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH
export FLINK_HOME=/usr/bigtop/3.2.0/usr/lib/flink
export HADOOP_HOME=/usr/bigtop/3.2.0/usr/lib/hadoop
export HADOOP_CONF_DIR=/usr/bigtop/3.2.0/usr/lib/hadoop/etc/hadoop
export HADOOP_CLASSPATH=hadoop classpath
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$FLINK_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

【背景】fe/be conf 目录下均已存在hdfs-site.xml
【业务影响】
【StarRocks版本】例如:2.5.3,hive3.1.3 hdfs 3.3.4
【集群规模】例如:1fe(1 follower+2observer)+3be(fe与be混部)+3 broker
【机器信息】CPU虚拟核/内存/网卡,例如:48C/64G/万兆
【联系方式】为了在解决问题过程中能及时联系到您获取一些日志信息,请补充下您的联系方式,例如:社区群4-小李或者邮箱,谢谢
【附件】

  • be crash

1.查一个hive表看看有问题吗?
2.另外贴下这歌内容be/conf/hadoop_env.sh

查询hive表也是有问题,似乎只要是查询hdfs都会导致宕机
hadoop_env.sh (1.0 KB)

有没有大佬回复一下

之前我们遇到一个,fe Jvm内存小了,导致GC然后引发BE Crash

你这个是改过hadoop_env.sh了,用starrocks自带的即可