草庐IT

HBASE_CLASSPATH

全部标签

hadoop - 删除 HBase 中的列

在HBase中,调用DeleteColumn()方法,即本质上对列族的架构更改或删除列族会导致HBase集群停机吗? 最佳答案 Deletemutation上的deleteColumn方法HBase的删除从特定行中删除特定列这不是模式更改,因为HBase不保留每行列的模式级知识(并且每行可以有不同数量和类型的列-考虑一下作为人口稀少的矩阵)。这个对象上的deleteFamily也是一样的。这不会导致集群停机(并且HBase在该区域的下一次主要压缩之前不会真正删除数据)如果你想从整个表中删除一个列族,你可以通过HBaseAdmin使用

java.lang.NoSuchFieldError : IBM_JAVA for a simple hbase java client in Eclipse 错误

如标题所示。我的源代码是:packagehbase;importjava.io.IOException;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.hbase.HBaseConfiguration;importorg.apache.hadoop.hbase.HColumnDescriptor;importorg.apache.hadoop.hbase.HTableDescriptor;importorg.apache.hadoop.hbase.client.HBaseAdmin;importorg

hadoop - 问题 : Scala code in Spark shell to retrieve data from Hbase

我们正在尝试在Sparkshell中执行一个简单的Scala代码以从Hbase检索数据。Hadoop环境启用了Kerberos,我们已确保执行kinit。调用SparkShell的步骤:MASTER=yarn-clientDRIVER_CLASSPATH="/opt/cloudera/parcels/CDH/lib/hbase/lib/*"DRIVER_LIBRARY_PATH="/opt/cloudera/parcels/CDH/lib/hadoop/lib/native"spark-shell--driver-class-path"$DRIVER_CLASSPATH"--drive

.net - 在 .NET 中使用 Thrift 在 Hbase 上进行 MapReduce?

我可以使用HadoopStreaming在.NET中使用thrift在HBase上运行MapReduce作业吗?或者是否有任何其他方法可以从.NET在HBase上运行MapReduce作业? 最佳答案 您还可以使用RESTAPI(stargate)。然而,thrift或stargate服务器都不是运行MapReduce作业的好方法。两者都需要一个单独的守护进程,这将成为一个单一的争论点,并且不会提供数据局部性。Javamapreduceapi识别输入拆分的数据局部区域。所以关键是将javaapi与.Net一起使用。Thisquest

hadoop - HBase 扫描是否返回排序的列?

我正在处理HBasemapreduce作业,需要了解单个列族中的列是否按名称(键)排序返回。如果是这样,我就不需要在随机排序阶段这样做了。谢谢 最佳答案 我有一个与您非常相似的数据模型。然而,在插入时,我为Put对象的时间戳设置了我自己的值。但是,我这样做的方式是获取当前时间的“种子”,并为我在批处理中坚持的每个事件附加一个递增计数器。当我从Scan中提取结果时,我写了一个比较器:publicclassKVTimestampComparatorimplementsComparator{@Overridepublicintcompar

hadoop - Hbase Map 和 Reduce 在同一张表上

是否可以在同一个hbase表上进行映射和归约?例如考虑wordcount示例,我想映射列的每一行,减少它并立即在同一行上写入worcount。有可能这样做吗?如果有,性能如何? 最佳答案 我还没有尝试过这个,但我确实看到了陷入无限循环的风险。因此,如果你能做到这一点,那么你必须确保你用作输入的键范围不会与你作为输出产生的键重叠。 关于hadoop-HbaseMap和Reduce在同一张表上,我们在StackOverflow上找到一个类似的问题: https:/

Hadoop + Hbase 兼容性问题

我搜索了很多关于面临的以下问题:java.io.IOException:Callto/10.0.1.37:50070failedonlocalexception:java.io.EOFExceptionatorg.apache.hadoop.ipc.Client.wrapException(Client.java:1139)atorg.apache.hadoop.ipc.Client.call(Client.java:1107)atorg.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:226)....我找到了如下链接:Whatistheme

hadoop - 将数据同步到 HBase/HDFS 并将其用作 MapReduce 作业的输入

我想将数据同步到Hadoop文件系统。此数据旨在用作计划的MapReduce作业的输入。这个例子可能会解释更多:假设我有一个包含一堆词的文档输入流,这些词需要作为MapReduceWordCount作业的输入。因此,对于每个文档,所有的单词都应该被解析出来并上传到文件系统。但是,如果同一文档再次从输入流到达,我只希望从文件系统上传(或删除)更改。数据应该如何存储;我应该使用HDFS还是HBase?数据量不是很大,大概几GB。是否可以使用来自HDFS和/或HBase的输入启动计划的MapReduce作业? 最佳答案 我会首先选择最适合

java - Hbase Java API TableNotDisabledException

我已经在我的本地系统上配置了Apachehbase0.94.14。我必须通过javaAPI与hbase通信。我编写了简单的代码来在现有的hbase表中添加一个新的列族。Java类代码//Instantiatingconfigurationclass.Configurationconf=HBaseConfiguration.create();//InstantiatingHBaseAdminclass.HBaseAdminadmin=newHBaseAdmin(conf);//InstantiatingcolumnDescriptorclassHColumnDescriptorcolum

hadoop - 多个映射后跟一个使用 Hadoop 和 HBase 的 reduce

我有几个Hbase表。我希望在每个表上运行一个映射任务(每个映射都是一个不同的Mapper类,因为每个表都包含异构数据),然后是一个reduce。如果不明确地将每个映射后的数据减少到临时SequenceFile中,我无法确定这是否可行。如有任何帮助,我们将不胜感激。 最佳答案 您似乎一次只能在一个表上运行MR(请参阅TableMapReduceUtil)。因此,最有可能的是,您最好的选择就是您所怀疑的:将每个表的输出保存到一个临时位置(例如SequenceFile或tmphbase表),然后编写一个最终的MR作业,将该位置作为输入并