如何将Oracle Clob数据导入到HDFS上的Avro文件 [英] How to sqoop to import oracle clob data to avro files on hdfs

查看:115
本文介绍了如何将Oracle Clob数据导入到HDFS上的Avro文件的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

当将数据从oracle DB压缩到HDFS时,出现一个奇怪的错误. Sqoop无法将Clob数据导入hadoop上的avro文件中.

I am getting a strange error when sqooping the data from oracle DB to HDFS. Sqoop is not able to import clob data into an avro files on hadoop.

这是sqoop导入错误:

This is the sqoop import error :

ERROR tool.ImportTool: Imported Failed: Cannot convert SQL type 2005

我们是否需要在sqoop import语句中添加任何其他参数,以使其将Clob数据正确导入到avro文件中?

Do we need to add any extra arguments to sqoop import statement for it correctly import clob data into avro files ?

推荐答案

更新:找到了解决方案,我们需要在clob列中添加-map-column-java.

Update: Found the solution, We need to add --map-column-java for the clob columns.

对于例如:如果列名称为clob,则我们对sqoop传递了-map-column-java clob=string来导入clob列.

For Eg: If the column name is clob then we have pass --map-column-java clob=string for sqoop to import the clob columns.

这篇关于如何将Oracle Clob数据导入到HDFS上的Avro文件的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆