草庐IT

HBASE_CLASSPATH

全部标签

java - Hbase 批量加载附加数据而不是覆盖它们

实际上,我是在Mapreduce和Bulkload的帮助下将数据加载到Hbase中,这是我用Java实现的。所以基本上我创建了一个Mapper并使用HFileOutputFormat2.configureIncrementalLoad(问题末尾的完整代码)用于减少,我使用一个映射器,它只是从文件中读取一些字节并创建一个放置。使用LoadIncrementalHFiles.doBulkLoad写出来将数据写入Hbase。这一切都很好。但可以肯定的是,什么时候这样做会覆盖Hbase中的旧值。所以我正在寻找一种附加数据的方法,就像api的附加函数一样。感谢阅读,希望你们中的一些人有可以帮助我

hadoop - 松鼠访问 Phoenix/HBase

我在hbase0.98/hadoop2.3.0上运行了phoenix4.0,命令行工具给我留下了深刻的印象。在第二步中,我按照网页上的描述使用其捆绑的JDBC驱动程序连接到phoenix。当我尝试连接时,我收到异常消息(在Squirrel端)java.util.concurrent.ExecutionException:java.lang.RuntimeException:java.sql.SQLException:ERROR103(08004):Unabletoestablishconnection.atjava.util.concurrent.FutureTask.report(U

hadoop - MRUnit正确创建HBase结果

我有一个mapreduce作业,其中映射器从几个HBase表中读取。它在我的集群上运行良好。我正在用MRUnit追溯性地编写一些单元测试。我正在尝试从手动实例化的KeyValue对象列表中组合一个Result对象,以用作map()方法的输入。当我随后尝试读取map()方法中的多个列时,似乎只有列表中的第一个KeyValue对象保留在Result对象中——其他列为空。在下面,我有一个名为“0”的列族。privateMapDrivermapDriver;privateHopperHbaseMapperhopperHbaseMapper;@BeforepublicvoidsetUp(){ho

java - 错误 org.apache.hadoop.hbase.regionserver.LeaseException

我的ApacheNutch爬虫在日志文件中生成以下信息。“警告client.ScannerCallable-忽略,可能已经关闭org.apache.hadoop.ipc.RemoteException:org.apache.hadoop.hbase.regionserver.LeaseException:lease'-3687805264051264867'不存在”我已经更改了hbase配置文件(hbase-site.xml)。hbase.client.scanner.caching100但它不会产生任何影响,并且以上相同的警告一次又一次出现。有什么想法吗?

scala - Spark-Scala HBase 表创建失败(MetaException(消息 :file:/user/hive/warehouse/src is not a directory or unable to create one)

我的VM中运行着hortonworks沙盒。我已经完成了所有的hive-site.xml配置并放置在Spark/conf文件中。我可以使用PySpark访问HBase并创建/更新表,但是当我在Scala中执行相同的实现时,会出现以下错误:FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.DDLTask.MetaException(message:file:/user/hive/warehouse/srcisnotadirectoryorunabletocreateone)我也更改了对“hive/war

java - 无法在 Cloudera VM 中使用 java(在 Eclipse 中)连接到 hbase

我正在尝试在ClouderaVM中使用Java(在Eclipse中)连接到Hbase,但出现以下错误。能够在命令行中运行相同的程序(通过将我的程序转换为jar)我的java程序`importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.hbase.HBaseConfiguration;importorg.apache.hadoop.hbase.HColumnDescriptor;importorg.apache.hadoop.hbase.HTableDescriptor;importorg.apache.had

java - 到 HBase 的 Mapreduce 作业抛出 IOException : Pass a Delete or a Put

在EMR上使用Hadoop2.4.0和HBase0.94.18时,我试图直接从我的Mapper输出到HBase表。在执行下面的代码时,我遇到了一个讨厌的IOException:PassaDeleteoraPut。publicclassTestHBase{staticclassImportMapperextendsMapper{privatebyte[]family=Bytes.toBytes("f");@Overridepublicvoidmap(MyKeykey,MyValuevalue,Contextcontext){MyItemitem=//dosomestuffwithkey/

hadoop - 尝试配置 Apache Phoenix 时 HBase 区域服务器出现故障

我正在使用CDH5.3.1和HBase0.98.6-cdh5.3.1并尝试配置ApachePhoenix4.4.0根据ApachePhoenixInstallation中提供的文档将phoenix-4.4.0-HBase-0.98-server.jar文件复制到lib目录(/opt/cloudera/parcels/CDH-5.3.1-1.cdh5.3.1.p0.5/lib/hbase/lib)主服务器和区域服务器从ClouderaManager重新启动HBase服务。当我检查HBase实例时,我发现区域服务器已关闭并且我在日志文件中没有看到任何问题。我什至尝试从phoenix文件夹中

hadoop - 如何将图像文件从 HDFS 目录移动到 HBase?

我有ClouderaCDH5.3.0我在HDFS中有一个目录,其中包含几千兆字节的图像文件。这些文件有多种类型(jpg、png、gif)。对于每个文件picturename.jpg,我希望在HBase中有一行以picturename作为行键,一列包含图像数据。有人可以解释一下我将如何完成这样的事情吗? 最佳答案 对于背景,HBase将所有内容存储为二进制。你会Put和Get二进制数据。将图像作为二进制文件读取正如您所描述的,HBase表看起来像rowkeycf:data有几种方法可以将数据提取到HBase。使用或不使用mapredu

scala - 使用 HBase 的 Spark 作业失败

我运行的任何涉及HBase访问的Spark作业都会导致以下错误。我自己的工作是在Scala中,但提供的python示例以相同的方式结束。集群是Cloudera,运行CDH5.4.4。相同的作业在使用CDH5.3.1的不同集群上运行良好。非常感谢任何帮助!...15/08/1521:46:30WARNTableInputFormatBase:initializeTablecalledmultipletimes.Overwritingconnectionandtablereference;TableInputFormatBasewillnotclosetheseoldreferencesw