【详述】
用table的方式将日志数据导入到sr里,字段有日志时间(datetime类型),ip(string类型),info(string类型)等等总共7个字段,但是导入的时候,总是报错说是少字段,看了下日志,应该是把我的数据转换成了\t分隔符的数据,但是日志信息大概率有\t,这样是不是会有问题呢?
改用streaming的方式导入数据要先将数据转换成json格式,导入时会爆出超出65535长度错误,但其实数据量并没有那么大。
官网还有个streaming方式,sink里面传3个参数的方法,第三个参数官网提供的java lambda表达式传参,那么scala应该怎么传呢?希望官方能给一个详细的示例,包括scala的方法谢谢
现在这两种方式导入数据都有问题,请问有什么方法可以解决么?
flink整合这块给的包用着还是有点不是很好用,想过用jdbc的方式,但是看官网说jdbc是要经过fe的可能效率会低很多。sr的查询算法上速度很快,如果数据很难进入的话,再快的算法我也用不上呀~感谢sr,希望能越来越好
【背景】用flink-connector-starrocks导入sr遇到的问题
【业务影响】
【StarRocks版本】例如:2.0.1
列表条目
【集群规模】3fe(1 follower+2observer)+3be(fe与be混部)
【机器信息】8核32G
【附件】
{“streamLoadErrorLog”:"Reason: column count mismatch, expect=7 real=3. src line:。。。。。。。