sqoop相关内容
我有两个HDFS设置,希望将HDFS1中的某些表复制到HDFS2中(而不是迁移或移动)。如何将数据从一个HDFS复制到另一个HDFS?是否可以通过Sqoop或其他命令行? 解决方案 DistCp(分布式副本)是一种用于在群集之间复制数据的工具。它使用MapReduce来实现分布,错误处理和恢复以及报告。它将文件和目录列表扩展为映射任务的输入,其中每个文件和目录都将复制源列表中指定文件的一个
..
Flume和Sqoop都是用于数据移动的,那么他们之间有什么不同?在什么情况下,我应该使用Flume或Sqoop?
..
我已经构建了一个sqoop程序,以便使用预先构建的sqoop作业将数据从MySQL导入到HDFS中: sqoop job -fs $ driver_path -D mapreduce.map.java.opts =“-Duser.timezone = Europe / Paris”\ --create job_parquet_table - import -m $ nodes_nu
..
我试图在Ubuntu上设置sqoop(sqoop-1.4.3.bin__hadoop-1.0.0)。我可以运行基本的sqoop帮助等没有问题。当我运行以下命令时,出现以下错误: pre $ sqoop import --connect jdbc:mysql:// localhost / test - 表销售-m 1 13/04/19 10:35:24信息orm.CompilationM
..
我有Apache hadoop工作并安装在Centos 6.5 KVM病毒服务器上。它安装在 /home/hduser/yarn/hadoop-2.4.0,配置文件位于/ home / hduser /yarn/hadoop-2.4.0/etc/hadoop。 我得到了hadoop关于32位库的抱怨(猜测二进制安装默认包含这些)所以我做了一个完整的源代码构建以获取64位库
..
15/03/20 12:47:53错误manager.SqlManager:从数据库读取时出错:java.sql.SQLException:流结果集com.mysql.jdbc.RowDataDynamic@33573e93仍处于活动状态。当任何流式结果集打开并在给定连接上使用时,不会发布任何语句。确保您在尝试更多查询之前在任何活动流式结果集上调用了.close()。 java.sql.SQ
..
总结: 有可能: 使用“MongoDB Connector for Hadoop”将数据导入Hadoop中。 使用Hadoop MapReduce处理数据。 使用Sqoop导出 我正在用MongoDB构建一个Web应用程序。尽管MongoDB在大多数工作中都能很好地工作,但在某些部分我需要更强大的事务保证,为此我使用MySQL数据库。 我的问题是我想阅读一个用于数据分析
..
我有下面的用例: 我的应用程序在 RDBMS DB中有一个包含多年数据 。我们使用 sqoop 将数据导入HDFS,并将其加载到由年,月分区的配置单元表中。 现在,应用程序会更新,并且每天还将新记录插入到RDBMS表格表中。这些更新的记录可以跨历史月份。更新的记录和新的插入记录可以通过更新的时间戳字段确定(它将有当前的日期时间戳记)。现在,问题在于:如何进行增量/增量加载hive表每天使用这
..
我正在使用sqoop 1.4.2版本。 我试图将默认hsqldb的sqoop Metastore更改为mysql。 我在sqoop-site.xml文件中配置了以下属性。 sqoop.metastore.client.enable.autoconnect false 如果为t
..
我创建了一个新的Java项目,然后添加了Library Sqoop和Hadoop。 (这些库是“hadoop-core-1.1.1.jar,sqoop-1.4.2.jar等....”)。 然后我尝试下面代码: public class MySqoopDriver { public static void main(String [] args){ String [] str =
..
Stack:使用Ambari 2.1安装HDP-2.3.2.0-2950 源数据库模式在sql server上,它包含几个表,它们的主键为: 一个varchar 复合 - 两个varchar列或一个varchar +一个int列或 两个int列。有一张大桌子?在PK一列中有三个 列的行int + two varchar列 根据Sqoop文档: Sqoop目前不能在多
..
我是hadoop的新手,现在我只用一个sqoop动作测试简单的工作流程。它可以工作,如果我使用普通值 - 不是全局属性。 然而,我的目标是定义一些全局属性在 job-xml中引用的文件中 经过长时间的阅读和阅读很多文章,我仍然无法使它工作。 我怀疑一些简单的事情是错误的,因为我发现文章暗示此功能可以正常工作。 希望您能给我个提示。 > 总之: 我有属性 dbserv
..
Sqoop能够使用 - query 子句从多个表中导入数据,但不清楚它是否能够导入下面的查询。 通过deptid从emp group中选择deptid,avg(salary) 另一个问题是 sqoop import --connect jdbc:mysql:// myserver:1202 / --username = u1 --password = p1 --query'Se
..
我知道如何通过命令行使用sqoop。 但是不知道如何使用java程序调用sqoop命令。 任何人都可以提供一些代码视图吗? 解决方案 您可以从java代码中运行sqoop,方法是将sqoop jar在你的classpath中调用 Sqoop.runTool()方法。您必须以编程方式创建所需的参数给sqoop,就好像它是命令行一样(例如 - connect 等)。 请注意以下几点:
..
我正在开发一个java程序。 java程序将数据从hive导出到mysql。 首先,我写代码 ProcessBuilder pb = new ProcessBuilder(“sqoop-export”,“export”, “--connect”,“jdbc:mysql:// localhost / mydb”, “--hadoop-home”,“/home/yoonhok/d
..
问 题 问题来源是这样,我使用sqoop向Hive中导入mysql的表 sqoop import --connect jdbc:mysql://127.0.0.1:3306/employees_db --table titles --username root -P --hive-import -- --default-character-set=utf-8 然后发生了报错:
..
- 查询 - 自定义查询 - split-by - 非整数列(char) - num-mappers - 超过2 验证源数据计数说1000记录 验证导入数据计数表示1923记录 解决方案 使用 split-by 时,字段是非整数。 Sqoop使用TextSplitter提供如下警告: WARN db.TextSplitter:如果您的数据库以不区分大小写的顺序
..
我有一个6节点cloudera的hadoop集群,我试图从oozie的一个sqoop动作连接到一个oracle数据库。 我已经复制了我的ojdbc6 .jar到所有节点的sqoop lib位置(对我来说恰好是在/opt/cloudera/parcels/CDH-4.2.0-1.cdh4.2.0.p0.10/lib/sqoop/lib/)并验证我可以从所有6个节点运行一个简单的“sqoop e
..
我需要使用sqoop将外部数据库从mysql导入hive。我的要求是使用sqoop import将具有所有表的完整数据库导入到指定的hive数据库。例如,我想导入mysql数据库'hadoop_practice'及其所有表到hive数据库'hadoop_practice'。但是,当我执行以下命令 $ sqoop import-all-tables --connect jdbc:mysql:/
..
我试图运行使用Java简单sqoop进口方案。 我的计划: 串驱动器=“com.vertica.Driver”; 配置配置=新配置(); config.addResource(新路径(“/../../../马preD-site.xml中”)); config.addResource(新路径(“/../../../核心的site.xml”)); config.ad
..