通过stream_load导入csv文件,不报错,但后台也查不到数据

通过stream_load导入csv文件,不报错,但后台也查不到数据

您好,方便的话请发下导入任务的返回结果

timeout by txn manager
image

上面的就是结果,导入的数据是1亿,不知道是不是因为数据量太大导致的,但是没超过10g

导入的status是fail 看下message详细信息,这只能看到部分。有errorurl吗?有的话curl下看看有没有结果?

返回的信息结果中 没有 errorurl,只有一个 timeout by txn manager

1.grep -w $TxnId fe.log|grep “load id” 看下本次导入的load_id和调度到的be节点
2.到对应的be节点执行:grep $load_id be.INFO|less
然后发下结果看下

环境不是我搭建的,我不知道目录。


这个web访问能看到安装目录吗

我找到了,但是查不到

这个是load_id
image

flink connect sr 经常报错 您参考一下这个帖子呢

我不是用flink导入的,sink.buffer-flush.enqueue-timeout-ms这个参数我这边没办法设置,我看网上有参数设置是load_mem_limit,设置大点

报错是事务超时,txn_commit_rpc_timeout_ms调整下这个参数,改大点试下


按照你说的设置的参数导入1亿数据成功了,但是查询的数据只有3千多万。这是因为啥?

这种情况数据可能被过滤掉了,请问导入的是什么表呢?

有可能是主键有重复,导致给过滤掉了,我再重新试下