flink cdc 同步时,sink的SR比源数据要多的问题

mongoDB作为源数据,部分数据有时会先删除再插入,是不是这部分出了问题?
删除我是通过增加一个_op=1的字段,自己手动新增删除的时候没有问题。


各位大佬有遇到这种情况吗

补充一下,我连续两次操作删除插入,如图,先insert了_id为6333ae9422750000bd002770的数据,后再删除这条数据,后面同步至sr却没有删除。单次删除时,同步没问题,遇到这种情况该怎么做呢?


image

__op字段确定和json中的操作类型的值正确匹配么?如果插入同步同时提交,但是没有删除,单提交删除可以成功执行可能是数据乱序了,当前不会删除的现象稳定么?

目前有几个表都是比源表大了,我自己做测试时,插入删除同步同时提交,确实会乱序,目前看来是稳定出现这种情况。昨天比源表大7千条,今天大9千条了

我分析日志后发现,大量删除的操作中,呈现的是一个间隔一个的规律,即红色的是未删除的数据,间隔中间的删除了,请问其中是有什么原因?未删除的情况怎么处理?@dongquan 大佬求教!

可以肯定是乱序问题,如下图2中的一条数据,先进来的是删除操作,然后是插入操作。删除操作那一批数据在插入操作之前就提交了(见图1),所以导致这一条数据删除失败,只有插入操作。

我的flink参数如下:


有什么办法能避免这种情况吗,为什么会出现这种乱序的情况呢?