如何将Oracle Clob数据导入到HDFS上的Avro文件 [英] How to sqoop to import oracle clob data to avro files on hdfs
问题描述
当将数据从oracle DB压缩到HDFS时,出现一个奇怪的错误. Sqoop无法将Clob数据导入hadoop上的avro文件中.
I am getting a strange error when sqooping the data from oracle DB to HDFS. Sqoop is not able to import clob data into an avro files on hadoop.
这是sqoop导入错误:
This is the sqoop import error :
ERROR tool.ImportTool: Imported Failed: Cannot convert SQL type 2005
我们是否需要在sqoop import语句中添加任何其他参数,以使其将Clob数据正确导入到avro文件中?
Do we need to add any extra arguments to sqoop import statement for it correctly import clob data into avro files ?
推荐答案
更新:找到了解决方案,我们需要在clob
列中添加-map-column-java
.
Update: Found the solution, We need to add --map-column-java
for the clob
columns.
对于例如:如果列名称为clob
,则我们对sqoop
传递了-map-column-java clob=string
来导入clob
列.
For Eg: If the column name is clob
then we have pass --map-column-java clob=string
for sqoop
to import the clob
columns.
这篇关于如何将Oracle Clob数据导入到HDFS上的Avro文件的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!