Hadoop:读取ORC文件并放入RDBMS? [英] Hadoop : Reading ORC files and putting into RDBMS?

查看:265
本文介绍了Hadoop:读取ORC文件并放入RDBMS?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我有一个以ORC文件格式存储的配置表。我想将数据导出到Teradata数据库。我研究了sqoop,但找不到导出ORC文件的方法。
是否有办法让ORC的sqoop工作?或者有没有其他工具可以用来导出数据?



谢谢。

解决方案

您可以使用Hcatalog


$ b $ sqoop export --connectjdbc:sqlserver:// xxxx:1433; databaseName = xxx; USERNAME = xxx; PASSWORD = xxx--table rdmsTableName - -hcatalog-database hiveDB --hcatalog-table hiveTableName


I have a hive table which is stored in ORC files format. I want to export the data to a Teradata database. I researched sqoop but could not find a way to export ORC files. Is there a way to make sqoop work for ORC ? or is there any other tool that I could use to export the data ?

Thanks.

解决方案

You can use Hcatalog

sqoop export --connect "jdbc:sqlserver://xxxx:1433;databaseName=xxx;USERNAME=xxx;PASSWORD=xxx" --table rdmsTableName --hcatalog-database hiveDB --hcatalog-table hiveTableName

这篇关于Hadoop:读取ORC文件并放入RDBMS?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆