为了更快的定位您的问题,请提供以下信息,谢谢
【详述】看源码发现这个函数的实现上,使用的是拿到该列所有的行,然后拼成一个大数组,然后通过偏移量获取每行对应数组中的元素方式来挨个处理
然后我看到他这边对于 offset 使用了uint32_t 类型, 那如果我这个 tableA表有 100 亿行,平均分布在两个 tablet 中,每个 tablet 分 50 亿行数据,且 col1 数组中都只有一个元素,那么到这个 offset 的时候,值就会超过 43 亿,应该会溢出才对;但是我实际生产实验数据时候发现,并没有这样的问题,这个array_to_bitmap 函数,应该是每个 tablet 上执行一次吧,所以里面的 size 应该是 50 亿行,对应的 offsets 存储的也是这 50 亿行的相关偏移量,请问这个是我理解上出问题了吗?
【业务影响】否
【是否存算分离】否
【StarRocks版本】例如:2.5.13
【集群规模】例如:3fe(1 follower+2observer)+5be(fe与be混部)
【机器信息】CPU虚拟核/内存/网卡,例如:48C/64G/万兆