草庐IT

hadoop - HBase 索引器与 Apache HBase 一起工作

我在使用ApacheHbase构建时遇到以下错误。我正在运行以下邮件mvn-ecleaninstall-DskipTests-Dhbase.api=0.98```[错误]构建错误[信息]----------------------------------------------------------------------[INFO]构建POM时出错(可能不是该项目的POM)。项目ID:null:akuma:jar:1.9原因:找不到父项目:org.kohsuke:pom项目:null:akuma:jar:1.9项目null:akuma:jar:1.9[信息]------------

hadoop - Hive - Hbase 集成事务更新与时间戳

我是hadoop和大数据的新手,这几天只是想弄清楚将我的数据存储移动到hbase的可能性,我遇到了一个问题,你们中的一些人可能会帮助我。所以它就像,我有一个hbase表"hbase_testTable",其列族为:"ColFam1"。我已将"ColFam1"的版本设置为10,因为我必须维护此列系列的最多10次更新的历史记录。哪个工作正常。当我尝试通过具有显式时间戳值的hbaseshell添加新行时,它工作正常。基本上我想使用时间戳作为我的版本控制。所以我指定时间戳为put'hbase_testTable''1001','ColFam1:q1','1000$',3'3'是我的版本。一切正

mysql - 在 hbase 中使用 enclosed by

我有tsv形式的数据,我想将它插入到hbase中,问题是每个字段都用“'”(单引号)括起来。如何在导入命令中提供它:hbaseorg.apache.hadoop.hbase.mapreduce.ImportTsv-Dimporttsv.bulk.output=output1-Dimporttsv.columns=HBASE_ROW_KEY,data:employee_id,data:employee_name,data:designation,data:telephone_number,data:artist_mbid,employees/emp我发现hbase可用的选项有:在http

MySQL 和 HBase 连接

我是Hadoop新手。我想连续从mysql获取数据到Hbase(持续集成),反之亦然。有什么办法可以做这种事情吗?? 最佳答案 你应该看看ApacheSqoop:一种设计用于在Hadoop和数据存储(例如关系数据库)之间传输大量数据的工具。 关于MySQL和HBase连接,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/33436794/

java - 如何使 HBase 主服务器和区域服务器进程绑定(bind)到公共(public) IP?

在主服务器和区域服务器上使用netstat时,我可以看到主服务器正在监听私有(private)ips:16000,而区域服务器正在监听私有(private)ip:16020。有没有办法强制这些进程绑定(bind)到公共(public)IP? 最佳答案 摘自《Hbase权威指南》一书(我自己没试过):HBase使用本地主机名来self报告其IP地址。正向和反向DNS解析都应该有效。您可以通过运行以下命令来验证设置是否正确用于正向DNS查找:$ping-c1$(hostname)您需要确保它报告服务器的公共(public)IP地址而不是

hadoop - Hadoop Mapreduce 可以实现什么?

我正在阅读Hadoopmapreduce教程并得出以下浅层理解。谁能帮忙确认一下我的理解是否正确?Mapreduce是一种聚合数据的方法在分布式环境中在非常大的文件中使用非结构化数据使用Java、Python等产生类似于在RDBMS中使用SQL聚合函数可以完成的结果selectcount,sum,max,min,avg,k2frominput_filegroupbyk2map()方法基本上以水平数据v1为轴,它是来自将输入文件分成垂直行,每行都有一个字符串键和一个数值。分组将发生在洗牌和分区阶段数据流。reduce()方法将负责计算/聚合数据。Mapreduce作业可以组合/嵌套,就像

hadoop - 在 spark 中使用 hadoop 配置连接到 Hbase

我正在尝试在spark的MapPartitionFunction中创建hbase连接。Causedby:java.io.NotSerializableException:org.apache.hadoop.conf.Configuration我试过下面的代码SparkConfconf=newSparkConf().setAppName("EnterPriseRiskScore").setMaster("local");conf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer");conf.set("s

sql - 如何在Hbase中进行反规范化?

我们正在尝试将我们现有的RDBMS(Sql数据库)系统迁移到hadoop。为此,我们计划使用hbase。但是我们不知道如何对sql数据进行反规范化以将其存储为hbase列格式。这可能吗?如果是,那么最好的方法是什么?这需要哪个hbase版本?任何建议。 最佳答案 如果您想避免对数据进行非规范化,另一种选择是在HBase之上使用多个SQL引擎之一,例如ApachePhoenix或SpliceMachine.免责声明,我在SpliceMachine工作。 关于sql-如何在Hbase中进行反

java - 从同一个进程访问两个安全的 (Kerberos) Hadoop/HBase 集群

我有一个Java工具,可以将几行数据从一个HBase集群复制到另一个集群(称为ClusterA和ClusterB)。当两个集群都不安全时,这工作正常:ConfigurationconfigA=Utilities.makeHBaseConfig("configA.xml");ConfigurationconfigB=Utilities.makeHBaseConfig("configB.xml");HTabletableA=newHTable(configA,input_table);HTabletableB=newHTable(configB,output_table);tableA.g

hadoop - Hbase Scan 返回超出范围的数据

我正在使用HBaseshell在HBase扫描中使用startRowKey和StopRowKey进行扫描,但我收到的输出超出了传递的范围。请引用Hbase查询-importorg.apache.hadoop.hbase.filter.CompareFilterimportorg.apache.hadoop.hbase.filter.SingleColumnValueFilterimportorg.apache.hadoop.hbase.filter.SubstringComparatorimportorg.apache.hadoop.hbase.util.Bytesscan'Table