starrocks小白历险记

1.搭建了一套集群,2fe(1leader 1ob)4be, leader和be都是正常的,ob报错
failed to get fe node type from helper node: xx.xxx.xx.xxx:9010. response code: 400
current node is not added to the group.please add it first. sleep 5 seconds and retry, current helper nodes: [xx.xxx.xx.xxx:9010]

ERROR (main|1) [NodeMgr.getClusterIdAndRoleOnStartup():469] cluster id is not equal with config item cluster_id. will exit.

配置文件不同:检查了fe leader的配置,在fe.conf配置文件里面没有指定cluster_id, 在 ob节点的配置文件中加入了cluster_id;

解决方法:去掉ob配置文件中的cluster_id,删掉starrocks/fe/meta目录(自定义目录)并重新建,重新启动ob,并登录数据库将ob加入到集群,问题解决。

祝你早日成为大牛!我看好你~ :sunglasses:

谢谢大运营 :smiling_face_with_three_hearts:

  1. starrocks 3.2.8 新建分区分桶表报错:
    Getting analyzing error. Detail message: Key columns must be the first few columns of the schema and the order of the key columns must be consistent with the order of the schema.

问题翻译过来如下:
遇到分析错误。详细信息:主键列必须是模式中的前几列,且主键列的顺序必须与模式中的顺序一致。
按照提示调整好之后,就可以了

  1. sr3.28. 创建分区分桶表报错
    Getting analyzing error. Detail message: The list partition column does not support allow null currently, column:[parti_dt] should be set to not null..

创建表的时候,分区字段不能为空,要显性的在字段后面加上not null,否则校验不通过,就会报上面的错误。

  1. 一步一个槛,新建了一张明细表,分区分桶,使用broker load从hdfs同步数据到sr,执行show load命令查看错误信息:
    type:LOAD_RUN_FAIL; msg:env 'JAVA_HOME' is not set
  1. 执行select * from files (
    “path”=“hdfs://url”,
    “format”=“orc”,

    ) limit 10; 的时候,报错如下错误:

    Access storage error.Error message: Operation category READ is not supported in state standby

已解决:根据提示修改了nn active节点地址就可以了,这种生产不会发生。

解决:在be节点start_be.sh脚本内,加上export JAVA_HOME=你的java安装路径

执行broker load命令的时候,提示错误信息如下:
error=Error(255): Unknow error 255, root_cause=RemoteException: Connection refused from xx.xxx.x.xxx, because it is not in the white list.

解决:从字面意思应该能看出来,starrocks的ip没有添加到访问hdfs集群的白名单,请添加或者联系大数据平台管理员添加,重新执行命令即可。

trino/presto中的序列函数Sequence,在starrocks中有对应函数吗?

答:
starrocks函数中的确不存在该Sequence函数,已经提需求:https://github.com/StarRocks/starrocks/issues/49575,另外可以自己UDF。