spark connector 读数据时报错: Set cancelled by MemoryScratchSinkOperator

这个是超时导致的,超时时间配置的是多少?

starrocks.request.query.timeout.s

query_timeout 36000

大概跑了4小时就报错了,上面这个是starrocks配置, 你发的这个是spark的配置吗?

是的,Spark任务的配置

我的版本是 2.5.13 , 也遇到了同样的问题, 2.5.13 不是已经修复了吗

列多的话,调大这个试试: starrocks.exec.mem.limit

1赞