starrocks创建hive catalog报错

【详述】starrocks 3.0.4创建hive (3.1.0版本)catalog成功,set catalog成功,使用show databases报错Failed to getAllDatabases msg: null 其中fe日志报错set_ugi() not successful Likely cause new client talking to old server continuing org.Apache.thrift.transport.TTransportException Socket is closed by peer
【背景】按照sr官网指定的hadoop用户名,拷贝了hdfs-site kerberos相关也做了更改
【业务影响】无法和hive表进行业务分析
【StarRocks版本】3.0.4
【集群规模】3fe 3be
【机器信息】32C/128G/千兆
【联系方式】社区群14-伴梦

创建catalog的命令请您脱敏发下,有配置kerberos的认证?

没有指定,集群配置了kerberos ,只指定了,type hive.meatstore.type和uris,我看官网没有相关kerberos参数

没有指定,集群配置了kerberos ,只指定了,type hive.meatstore.type和uris,我看官网没有相关kerberos参数

该图中的配置您都已经进行配置了吗?不是部分catalog无法查询,是所有的都无法查询是吧

图中的所有都配置了,也配置了cron 用户也有相关的权限

只能创建catalog 所有查询都无法进行

咋感觉这个 JAVA_OPTS="-Djava.security.krb5.conf=/etc/krb5.conf"有点奇怪, 下面还有一个JAVA_OPTS="-Dlog4j2.formatMsgNoLookups******

这样能生效吗?
你把它们拼接在一起试试?

拼接在一起了,查看进程是有这个参数的,报错还是一样的

拼接后的结果您发下,修改配置后有重启么

您客气,上面这个图请你拍全一点再发一下 :handshake:

创建catalog的语句发一下?

我们用的cos的存储, 然后挂的hive, 你可以参考下

CREATE EXTERNAL CATALOG hive
PROPERTIES (
“aws.s3.access_key” = “",
“aws.s3.secret_key” = "
”,
“aws.s3.endpoint” = “*********”,
“aws.s3.use_instance_profile” = “false”,
“aws.s3.region” = “ap-guangzhou”,
“hive.metastore.uris” = “thrift://IP.5:7004,thrift://IP.7:7004,thrift://IP.13:7004,thrift://IP.17:7004”,
“type” = “hive”
)

aws的用不到啊,我们原生的hdfs

fe.conf,be.conf,fe和be conf/hadoop_env.sh还有hive-site.xml,hdfs-site.xml,core-site.xml这些脱敏后的配置发下

我把hive-sitr和core-site拷贝到了be 和fe的conf目录之后可以了 多谢大佬