使用External catalog,查询报错了

使用的hive是spark-2.4.4-bin-hadoop2.7,Spark 内嵌的,不是独立的 HiveServer,建立查询报错了,看着好像是版本问题,官方jar只支持3以上版本么 有什么办法兼容解决嘛

set_ugi() not successful, Likely cause: new client talking to old server. Continuing without it.
org.apache.thrift.transport.TTransportException: Socket is closed by peer.

fe.warn.log (90.6 KB)

metastore和sr互通吗?

开始不通报错不一样,通了后报这个了set_ugi() not successful, Likely cause: new client talking to old server. Continuing without it.
org.apache.thrift.transport.TTransportException: Socket is closed by peer.

看样子是hive-spark的问题,你参考下这个帖子排查下问题,看下能不能解https://blog.csdn.net/weixin_57551874/article/details/122672309

hive-spark一直被其他项目使用的,只是starrocks使用查询那里报错

您好,您的core-site、hdfs-site这些检查下是否配置正确,检查下meta地址是否正确

现在好了 ,原来的是开启了HiveServer2,starrocks使用的是metastore服务,需要开启,但是新问题又来了 ,FE:ERROR 1064 (HY000): curlCode: 28, Timeout was reached
BE:
failed to read file failed to read file: oss://
oss都配置了貌似连接不上

您好,看报错提示是超时问题,看下fe和be的状态,以及他们之间是否可以正常通信?