通过 spark-connector 加载数据失败

【StarRocks版本】3.0.0
【集群规模】3fe + 3be。 azure aks. 通过 starrocks-operator 部署
【详述】通过 spark-connector load data to StarRocks 失败。

service: kubectl get svc -n starrocks


fe-service 和 be-service 开了 loadbalance.
在集群外部通过直连 be-service ip 可以通过 stream_load 能加载数据成功。

但是在尝试 spark-connector load data 的时候失败了。
按照文档 使用 Spark connector 导入数据(推荐) @ Spark-connector-starrocks @ StarRocks Docs
starrocks.fe.http.url 设置为 fe-service external ip 会报错如下,


是需要把 starrockscluster-sample-fe-search 也打开 external ip ?

也尝试了像 stream_load 那样直接在 spark-connector 访问 be service loadbalance 也不通,好像只能通过 FE ?

请问我这个问题要怎么解决呢?

kubectl -n starrocks get svc

感谢回复,svc 如下,看log报错的意思,search 目前是 clusterIP, 外部网络访问不通, 导致 starrockscluster-sample-fe-0.starrockscluster-sample-fe-search.starrocks.svc.cluster.local dns 解析失败?
我需要把 fe&be search 也改成 loadbalancer 吗?

FE Service 向外部暴露的 IP 地址 EXTERNAL-IP 是不是写错了

目前涉及到stream load功能的, 对外用FE service都会有问题, 因为FE返回的HTTP 307带出了BE在k8s内部的域名, 在外部不能解析. 我们计划在operator v1.8或者v1.9版本里解决这个问题.