hbase相关内容
我是phoenix和hbase的新手.hbase表和phoenix视图运行良好,我可以通过phoenix获取数据.当我将jdbc访问到phoenix时,它卡住了. import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.SQLException;
..
我有一些代码,用hbase 0.92写道: / ** *将给定的扫描写入一个Base64编码的字符串。 * * @param scan要写出的扫描。 * @return扫描保存在Base64编码的字符串中。 * @throws IOException写入扫描失败时。 * / public static String convertScanToString(Sca
..
有人可以推荐一个好的解决方案(框架)来访问 HBase 来自 Scala 的/hadoop.apache.org/\"rel =“nofollow”> Hadoop 群集(或 Java )申请? By现在我正在进行烫伤方向。我获得的原型允许我将烫洗库与 Maven 结合起来,并将“scilding job JAR”与“库”代码包分开。这反过来又允许我从外部集群运行基于scalding的Had
..
我有一个小示例代码,我尝试建立与远程HBase实体的连接。代码在没有安装HBase的Windows机器上运行,我尝试连接到安装并运行它的远程Ubuntu服务器。以下代码段中的IP当然只是一个占位符。 代码如下: public static void main(String [] args){ Configuration conf = HBaseConfiguration.cre
..
有没有办法在扫描期间指定多个过滤器?例如 - 指定 ColumnFamilyFilter 和 RowFilter ? Filter rowFilter = new RowFilter(CompareFilter.CompareOp.EQUAL,new RegexStringComparator( rowFilterString)); 扫描s = new Scan(); s.se
..
环境:hadoop 1.0.3,hbase 0.94.1,pig 0.11.1 我在Java程序中运行一个猪脚本,有时会出现下面的错误但不是所有的时间。程序所做的是从hdfs加载文件,做一些转换并将其存储到hbase中。我的程序是多线程的。我已经使PigServer线程安全,并且在hdfs中创建了“/ user / root”目录。这是程序的片段和我得到的例外。请指教。 pigSer
..
Traceback(最近一次调用的最后一次): 在中的第1行文件“” 文件“/hskj/anaconda3/lib/python3.5/site-packages/happybase/connection.py”,第242行,在表格中 名称= self.client.getTableNames() 文件“/hskj/anaconda3/lib/python3.
..
更新:这不是一个自制问题,我可以证实这一点,因为我从apache源代码运行HBase时得到完全相同的错误。 一直在努力获得HBase在我的笔记本上进行测试。基本上我使用以下命令在我的Mac上安装HBase: brew install hbase 但是当我进入hbase shell并发出命令时,出现此错误: 线程“main”中的异常java.lang.NoClassDefFoundEr
..
我要求从Hbase删除数据。我想根据Hbase中的行键删除每个单元格的最新版本。 我想到了一种方法来获得每列的列名和最新时间戳与给定的rowkey .....然后迭代地执行删除操作,每列和它的时间戳。 但是我无法获取列名,所以我无法做到这一点。 如果您有任何问题,请分享想法或工作代码? 解决方案 From 版本0.94的HBase官方指南,你可以看到: 删除工作通过
..
我有一个数据集(CSV),它有三个值列(v1,2和3)和一个值。该值的描述在'keys'列中以逗号分隔的字符串存储。 | v1 | v2 | v3 |键| | A | C | E | X,Y,Z | 使用Pig我想将这些信息加载到一个HBase表中,其中列族是C和列限定符是关键。 | C:X | C:Y | C:Z | | A | C | E |
..
在HDP 2.4.2中尝试通过spark连接hbase(使用 newhadoopAPIRDD ),打开followiong错误。已尝试增加hbase站点xml中的RPC时间文件,仍然相同。任何想法如何解决? 线程“main”中的异常org.apache.hadoop.hbase.client.RetriesExhaustedException:失败后尝试= 36,例外: Wed Nov 1
..
任何人都可以帮助我开发一个使用HBase作为后端数据库的Web应用程序,因为我是HBase的新手,我没有任何关于开发HBase Web应用程序的想法。我正在像JSP程序那样在JSP中编写代码,但它没有得到。请帮助我找出程序或任何示例,以便我可以尝试它。 预先致谢 解决方案 您可以使用HBase作为后端或数据库层到您的应用程序,就像您使用任何RDBMS一样。 您需要使用连接器通过
..
我有一个HBase表。我对桌子执行了HBase主要压缩。 如何在Java中为Hbase表动态获取HFile的数量? 解决方案 Kylin - 你可以从一个RegionLoad实例中获得商店文件的数量,例如int storeFiles = regionLoad.getStorefiles() / * *单元测试的构造函数* / HBaseRegionSizeCalculator
..
HBase支持单行原子事务。 用于实际检查。我写了下面的代码: Increment inc = new Increment(); //写入WAL inc .getWritetoWAL(); Put p = new Put(Bytes.toBytes(“name10”)); p.add(Bytes.toBytes(“cf”),Bytes.toBytes(“name”),By
..
请找到Hbase-master日志的附件截图。我尝试了各种设置,但我无法克服这个问题。我确定我的/ etc / hosts中没有127.0.1.1。 我使用 Apache Hadoop 0.20.205.0和Apache HBase 0.90.6在伪分发中。我正在使用Nutch 2.2.1并尝试将已抓取的数据存储在HBase伪模式中。我正在使用bin / crawl all-in-one命令
..
//创建一个Puts列表,并通过HTable的批处理方法保存在HBase中 HTable table = new HTable(HBaseConfiguration.create(),'table_name'); 列表 actions = new ArrayList(); actions.add(put1); // rowkey ='abc' actions.a
..
这里要做的是我想在HBase表中存储和检索序列化数据,后来我想按照原样检索它们。我想按照方法。请告诉我,如果我错了。 put.add(streamColumnFamily,streamColumnName,serializedData); 这里serializedData属性将由 HBaseSerialization 类。想要的是,这种方法是否正确。我将能够以原样检索存储
..
hbase(main):001:0> list ... ava:75) at org.jruby.internal.runtime.methods.InterpretedMethod.call(InterpretedMethod.java :147) at org.jruby.internal.runtime.methods.DefaultMethod.call(DefaultMethod
..
我按照稍微简单的 http://hbase.apache来安装Hbase 0.94.2 .org / book / quickstart.html ,它还没有工作。运行启动脚本我得到了日志文件: 2012-11-23 18:26:37,827信息org.apache。 zookeeper.ClientCnxn:会话建立在服务器localhost / 127.0.0.1上完成:2181,se
..
任何人都可以提出任何建议。任何人都可以提出任何建议更好的方式或经验我是新来的。 有没有什么办法可以做到这一点。 HBase -Indexer Mapper:
..