StarRocks 2.2.2使用问题

我看了一下profile,大部分时间花在了


聚合上,这个是不是优化空间不大了。

AggComputeTime 就是聚合计算的时间,这个可以通过new_planner_agg_stage,- parallel_fragment_exec_instance_num 来提高,增加BUCKETS的数量。

想问一下: priority_networks写成172.16.1.32/16和172.16.1.32/24有什么区别吗?

您好,这个跟网络知识有关系的,这里有个例子
172.168.16.10/25 可以得到的信息如以下

Ipv4 地址 = 172.168.16.10
子网掩码 = 255.255.255.128
网络地址 = 172.168.16.0
广播地址 = 172.168.16.127
地址范围 = 172.168.16.0 - 172.168.16.127
可使用地址 = 172.168.16.1 - 172.168.16.126
如果您的服务器是多个网卡,刚好IP的范围在172.168.16.1 - 172.168.16.126里。
通常单个网卡,只需要配置priority_networks=ip,不需要指定子网掩码。

我们的机器的确是多网卡,我用ip addr命令查看:


bond0是172.16.1.32/16,子网掩码是16位的,我在fe的配置文件里配成了172.16.1.32/24,这么配置是不是有问题?

就像那个例子,例如有2个网卡 172.168.16.1和172.168.16.120
那么我设置 172.168.16.10/25 可用地址包含上面两个IP
这个要根据您的实际情况设置。

想问一下,我看最近发布了2.3.2,我列出的问题里,2,3,4,5问题都修复了吗

2. 非master节点执行如:show frontends,drop table 等语句报错:connection reset或failed to get master cient。select没有问题

目前通过重启master节点解决此问题。
A:非master节点执行DDL和DML操作 应该支持的,是不是某些原因引起的?

https://github.com/StarRocks/starrocks/pull/5656

3. spark connector读取sr数据偶发报错:scala.MatchError: 3002 (of class java.lang.Integer)

https://github.com/StarRocks/starrocks/issues/8324

A:2.3.1后就修复了,2.3版本建议使用最新的2.3.2

4. Total size of single column exceed the limit of hash join

2.3版本已经放开这个限制了,当前join加shuffle

A:一直以来join是可以加[shuffle] 强制使用shuffle join。select a.x,b.y from a join [shuffle] b on a.x1 = b.x1

5. Pattern length exceeds limit

正则过长报错:Pattern length exceeds limit

A:这个还没修复。

你好,第二个:非master节点可以执行ddl,dml操作,这个是个bug,之前官方的同学说过,链接地址就是bug的描述。想确认一下修复的版本。
第三个:嗯,修复了就ok。
第四个:是的,join是可以加shuffle,但是当前的版本不加shuffle可能会报错。有人也在我之前遇到过,链接就是别人的描述。2.3之后应该是解决了这个问题。
第五个:好,了解了,这个bug还没修复。

第二和第四 用2.3.2 修复了。

为啥呢?2.2不太稳定吗?

2.2 稳啊 :smiley_cat: :smiley_cat: :smiley_cat: :smiley_cat: