草庐IT

HBASE_CLASSPATH

全部标签

hadoop - 使用 Flume Serializer 生成复合 hbase rowkey

我有这样的GIS数据-'111,2011-02-0120:30:30,116.50443,40.00951''111,2011-02-0120:30:31,116.50443,40.00951''112,2011-02-0120:30:30,116.58197,40.06665''112,2011-02-0120:30:31,116.58197,40.06665'第一列是driver_id,第二个是timestamp,第三个是longitude&第四个是latitude.我正在使用Flume摄取此类数据,我的接收器是HBase(类型-AsyncHBaseSink)。默认情况下,HBas

hadoop - 如何从 HBase 读取记录然后存储到 Spark RDD(弹性分布式数据集);并读取一个 RDD 记录然后写入 HBase?

所以我想写一段代码从HadoopHBase中读取一条记录,然后将其存储到SparkRDD(ResilientDistributedDatasets)中;并读取一条RDD记录然后写入HBase。我对这两者的了解为零,我需要使用AWS云或Hadoop虚拟机。请有人指导我从头开始。 最佳答案 请使用Scala中的基本代码,我们正在使用Scala读取HBase中的数据。同样可以写个建表把数据写入HBaseimportorg.apache.hadoop.hbase.client.{HBaseAdmin,Result}importorg.apa

hadoop - Hbase:如何知道一行是否有特定的列族?

让我们假设行键1具有f1:c1、f1:c2的值其中rowkey2仅具有f1:c1的值。第2行没有f1:c2。我如何识别这些行(没有填充列的行)? 最佳答案 你想从行中知道然后像这样尝试...HTablet=newHTable(conf....);ResultScannerscanner=t.getScanner(newScan());for(Resultrr=scanner.next();rr!=null;rr=scanner.next()){if(rr.getValue("YourFamily","YourQualifier").

HBase 超大表迁移、备份、还原、同步演练手册:全量快照 + 实时同步(Snapshot + Replication)不停机迁移方案

博主历时三年精心创作的《大数据平台架构与原型实现:数据中台建设实战》一书现已由知名IT图书品牌电子工业出版社博文视点出版发行,点击《重磅推荐:建大数据平台太难了!给我发个工程原型吧!》了解图书详情,京东购书链接:https://item.jd.com/12677623.html,扫描左侧二维码进入京东手机购书页面。1.背景介绍本文介绍的演练操作源于某真实案例,用户有一个接近100TB的HBase数据库,其中有一张超大表,数据量约为数十TB,在一次迁移任务中,用户需要将该HBase数据库迁移到AmazonEMR上。本文将讨论并演示:将一个数十TBHBase单表不停机迁移数据到一个HBaseonS

hadoop - 为什么使用 MapReduce 与 HBase shell 过滤器

我需要在HBase上查询数据。我的查询如下所示:显示“authorD”的所有书籍。数据库中有多少作者“authorA”的书?据我所知,您可以使用MapReduce或HBase外壳过滤器来做到这一点。如果我错了,请纠正我。我的问题是:如果我可以使用它的过滤器在HBaseshell上执行相同的操作(无需编程),我为什么要使用MapReduce(需要编程)?感谢您的回答。祝你有美好的一天。 最佳答案 有3种方法可以从Hbase中获取结果。1)Shell:这是用于对少量数据进行简单可靠的数据分析。这适用于少量数据,供开发人员分析。如果您直接

hadoop - 删除 hbase 表后快照和新克隆的表会发生什么

我有以下关于hbase快照的查询:如果我按给定的顺序执行下面的语句:hbase>snapshot'NS1:table1','snap_table1'hbase>disable'NS1:table1'hbase>drop'NS1:table1'hbase>clone_snapshot'snap_table1','NS1:table1'`在这种情况下,即使在主要压缩之后,"NS1:table1"是否仍然保留快照中的数据?谢谢! 最佳答案 snapshot'NS1:table1','snap_table1':它将创建快照。快照数据不会占用

hadoop - HBase伪分布式还是全分布式?

我在开发环境中有一个linux(ubuntu)服务器,我也计划在生产环境中使用一个服务器。我有从Nutch2.2.1生成的爬网数据,我想将其存储在HBase0.90.6中。因为,我不打算使用多台机器,(我只有一台服务器)在我的情况下,哪种HBase模式最适合生产环境-伪还是完全分布式? 最佳答案 伪分布式模式会更好,因为在独立模式下使用本地FS。这意味着您无法利用HDFS+MR组合提供的并行性。 关于hadoop-HBase伪分布式还是全分布式?,我们在StackOverflow上找到一

hadoop - HBase - 如何在表中嵌套实体两(+)层?

我正在审查这个slideshow[幻灯片134](HBaseCon2012上的IanVarely/salesforce.com)他指出您可以将实体嵌套两层深。这是他给出的嵌套实体一层深的示例:实体:乐队、演出;Band1:M显示的位置。Table:BandCF:"CF"Qualifiers:"Name":"Genre":"Show_":venue__date__start_time__cover_price_但是,他没有举例说明如何嵌套两层。幻灯片134中我最好的嘉宾是下面这样的人......实体:客户、session、与会者;其中客户1:Msession和session1:M与会者。

macos - 运行伪分布式hbase出错

我通过Homebrew在MacOSX10.9中安装了Hadoop和HBase。Hadoop版本为2.5.1,HBase版本为0.98.6.1。在我启动HDFS并尝试启动HBase后,我得到了这些错误:Error:Couldnotfindorloadmainclassorg.apache.hadoop.hbase.util.HBaseConfToolError:Couldnotfindorloadmainclassorg.apache.hadoop.hbase.zookeeper.ZKServerToolstartingmaster,loggingto/usr/local/Cellar/

hadoop - Hbase Java Api 不保留任何整数值

我正在尝试将age作为numberintBytes.toBytes(44)插入到HTable中,但未保留值。Row键也发生了同样的情况。我正在使用ClouderaQuickStartVM:这是我的代码:packagecom.sohi.put;importjava.io.IOException;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.hbase.HBaseConfiguration;importorg.apache.hadoop.hbase.HColumnDescriptor;importorg