为了更快的定位您的问题,请提供以下信息,谢谢
【详述】问题详细描述
使用1.1.0的 Spark Connector包,读取datatime类型的数据报错
【背景】做过哪些操作?
SR建表:
CREATE TABLE mytable
(
k
int(11) NULL COMMENT “bucket”,
b
int(11) NULL COMMENT “”,
dt
datetime NULL COMMENT “”,
v
int(11) NULL COMMENT “”
)
ENGINE=OLAP
DUPLICATE KEY(k
,b
, dt
)
COMMENT “OLAP”
PARTITION BY RANGE(dt
)
(
PARTITION p202201 VALUES [(‘2022-01-01 00:00:00’), (‘2022-02-01 00:00:00’)),
PARTITION p202202 VALUES [(‘2022-02-01 00:00:00’), (‘2022-03-01 00:00:00’)),
PARTITION p202203 VALUES [(‘2022-03-01 00:00:00’), (‘2022-04-01 00:00:00’))
)
DISTRIBUTED BY HASH(k
) BUCKETS 3
PROPERTIES (
“replication_num” = “3”
);
INSERT INTO mytable
VALUES
(1, 11, ‘2022-01-02 08:00:00’, 111),
(2, 22, ‘2022-02-02 08:00:00’, 222),
(3, 33, ‘2022-03-02 08:00:00’, 333);
spark建表:
CREATE TEMPORARY VIEW spark_test2
USING starrocks
OPTIONS
(
“starrocks.table.identifier” = “test.mytable2”,
“starrocks.fe.http.url” = “ip:8030”,
“starrocks.fe.jdbc.url” = “jdbc:mysql://ip:9030”,
“starrocks.user” = “root”,
“starrocks.password” = “xxxx”
);
【业务影响】
有影响,目前先暂时使用1.0.0的包了
【是否存算分离】
【StarRocks版本】例如:2.5.3,spark3.2.1
【集群规模】例如:3fe(1 follower+2observer)+3be(fe与be混部)
【机器信息】
【表模型】
【导入或者导出方式】spark
【联系方式】
【附件】
报错信息.txt (26.2 KB)