flink 导入报错

【详述】使用flink-connect 导入数据,starrock字段与源端字段数量一致,但是执行一段时间后会报错


会在原本的字段后面多出一个字段 如图中是 新增了一个字段 “1”
flink任务配置

【导入/导出方式】flink-connect
【StarRocks版本】例如:1.19.1
【集群规模】例如:3fe(1 follower+2observer)+7be(fe与be混部)
【机器信息】CPU虚拟核/内存/网卡,例如:48C/64G/万兆
【附件】

  • fe.warn.log/be.warn.log/相应截图

确认是这是脏数据还是?

业务数据,应该不算脏数据

原数据是在kafka中的嘛?可以检验下?
另外请问下使用的哪个版本?哪种数据模型?flink-connector哪个版本?

业务数据中带有很多不可见字符,但是这些无法做控制或者etl过滤,是在kafka中,用的1.19.1 ,主键模型,flink-connector 1.10-1.13的