spark load导入报错Waiting too much time to get appId from handle

【详述】通过spark load导入csv文件到starrocks表中,
LOAD LABEL label111302 ( DATA INFILE(“hdfs://grampus/tmp/customer.csv”)
INTO TABLE customer COLUMNS TERMINATED BY “|”
(c_custkey,c_name,c_address,c_city,c_nation,c_region,c_phone,c_mktsegment) )
WITH RESOURCE ‘spark0’ (
“spark.executor.memory” = “2g”,
“spark.shuffle.compress” = “true”
)
PROPERTIES ( “timeout” = “3600” );
报错显示ErrorMsg: type:ETL_SUBMIT_FAIL; msg:start spark app failed. error: Waiting too much time to get appId from handle. spark app state: UNKNOWN, loadJobId:334017
GET_APPID_TIMEOUT_MS 代码里设置的是5分钟
// 5min
private static final long GET_APPID_TIMEOUT_MS = 300000L;
【导入/导出方式】spark load
【背景】做过哪些操作?
【业务影响】
【StarRocks版本】2.1.3
spark :2.4.6
hadoop:3.1.1
【集群规模】3fe(3 follower)+3be(fe与be混部)
【机器信息】CPU虚拟核/内存/网卡,例如:48C/64G/万兆
【附件】

检查下是不是配置有些问题呀

配置都检查了,之前以为是spark版本低,重新下了一个2.4.6的版本
这是fe.conf的配置


这是spark0 resource配置,HDFS HA cluster模式

这是spark1 resource配置,使用的yarn HA cluster模式

求大佬帮我看一看,有哪里不对

请问下SR和spark集群部署在一起么?或者验证下网络上的问题 执行telnet ip port看下能否连通

好的,是我的集群之前不通,谢谢