用spark connector写入数据报“does not allow insertion”,手工单条又能插入

【详述】问题详细描述
用spark connector写入数据,用spark sql INSERT INTO xxx_doris_tbl_as_view SELECT * FROM xxx_spark_tbl;的方式导入数据,报“does not allow insertion”,手工单条又能插入。

【背景】做过哪些操作?
1,starrocks集群是用1.3版本的k8s operator在1.21版本的k8s上安装的,starrocks image的版本用的是最新的2.5.2。
2,spark connector用的是master最新版本,spark子版本设置为3.3.1构建的,用到的stream load sdk和thrift库是1.2.5版本的flink connector里的lib。
3,spark作业是在spark 3.3.1版本,提交到k8s上跑的,以前对比测试导入过doris的数据,所以spark和k8s应该是没问题。

【业务影响】
【StarRocks版本】例如:2.5.2
【集群规模】例如:3fe(1 follower+2observer)+3be(fe与be混部)
【机器信息】32C/128G/千兆
【表模型】例如:duplicated key
【导入或者导出方式】:Spark
【联系方式】:社区群13-刘三藏,bronzels@hotmail.com,手机/微信:13828881158
【附件】