很多~~
方便看一下你们的routine load任务代码嘛,我这里kafka json是有序的,一写到sr表里面又乱序了不知道啥情况
乱序是指什么?字段值?还是记录 ?举个例
这个问题已经解决了 ,谢谢老哥
大佬,我想问一下where过滤条件为什么会失效吗?目前我也是遇到了类似的情况,我的一个topic有两个表,只想要其中一个表的数据,我在routine load的条件中添加了soure_table_name=‘test’这样的条件,source_table_name不是主键,然后用show routine load task where JobName=’'查看导入任务,发现message=‘previous task aborted because of all partitions have no load data’。虽然过滤条件可以生效,但是过滤条件似乎导致task的失败,然后kafka的消费偏移量一直都不会变,只有来了正确的数据task才能成功,然后偏移量也才会动。
大佬,使用这个案例无法同步delete呢,我使用UNIQUE KEY发现delete不会被同步,然后使用PRIMARY KEY,也不能同步delete,然后我设置开启"sink.properties.partial_update", "true"结果运行报错,报key column id not in partial update columns,但是我的数据里面是有key键值对的
{"times":"2024-07-09 21:15:42","name":"ds","id":1,"__op":0}
{"Status":"Fail","BeginTxnTimeMs":0,"Message":"key column id not in partial update columns","NumberUnselectedRows":0,"CommitAndPublishTimeMs":0,"Label":"fa6958c0-1263-48ae-a6fe-8d987bea807c","LoadBytes":0,"StreamLoadPlanTimeMs":0,"NumberTotalRows":0,"WriteDataTimeMs":0,"TxnId":2214,"LoadTimeMs":0,"ReadDataTimeMs":0,"NumberLoadedRows":0,"NumberFilteredRows":0}