草庐IT

phoenix5

全部标签

hadoop - Phoenix 中的主键如何转换为 hbase 中的行键

凤凰查询:CREATETABLESTORE.DETAILS(MarketUNSIGNED_INTNOTNULL,ProductUNSIGNED_INTNOTNULL,PeriodUNSIGNED_INTNOTNULL,UnitsdoubleCONSTRAINTpkPRIMARYKEY(Market_Key,Product_Key,Period_Key))在hbase中,我只有两列,我希望将主键组合转换为行键。能否请您告诉我主键在Phoenix中是如何组合并转换为行键的? 最佳答案 是的,主键被视为行键,当您有多个列作为主键时,pho

apache-spark - spark 谓词下推不适用于 phoenix hbase 表

我正在处理spark-hive-hbase集成。这里使用phoenixhbase表进行集成。Phoenix:**apache-phoenix-4.14**HBase:**hbase-1.4**spark:**spark-2.3**hive:**1.2.1**我正在使用sparkthrift服务器并使用jdbc访问表。我测试的几乎所有基本功能都运行良好。但是当我从spark提交查询时,它会在没有where条件的情况下提交给phoenix并且所有过滤都发生在spark端。如果表有数十亿的数据,我们就不能这样做。示例:Input-query:select*fromhive_hbasewher

hadoop - Apache Phoenix 非法数据。预期长度至少为 4 个字节,但有 2 个

我有一个像下面这样创建的Phoenix表Phoenix顶部的Hive外部表如下所示createExternaltableTABLE_NAME(rowKeySTRING,unique_idstring,USERNAMEstring,DAYstring,MONTHstring,YEARstring,APPIDINT)STOREDBY'org.apache.hadoop.hive.hbase.HBaseStorageHandler'WITHSERDEPROPERTIES("hbase.columns.mapping"="details:unique_id,details:USERNAME,d

hadoop - 松鼠访问 Phoenix/HBase

我在hbase0.98/hadoop2.3.0上运行了phoenix4.0,命令行工具给我留下了深刻的印象。在第二步中,我按照网页上的描述使用其捆绑的JDBC驱动程序连接到phoenix。当我尝试连接时,我收到异常消息(在Squirrel端)java.util.concurrent.ExecutionException:java.lang.RuntimeException:java.sql.SQLException:ERROR103(08004):Unabletoestablishconnection.atjava.util.concurrent.FutureTask.report(U

hadoop - 尝试配置 Apache Phoenix 时 HBase 区域服务器出现故障

我正在使用CDH5.3.1和HBase0.98.6-cdh5.3.1并尝试配置ApachePhoenix4.4.0根据ApachePhoenixInstallation中提供的文档将phoenix-4.4.0-HBase-0.98-server.jar文件复制到lib目录(/opt/cloudera/parcels/CDH-5.3.1-1.cdh5.3.1.p0.5/lib/hbase/lib)主服务器和区域服务器从ClouderaManager重新启动HBase服务。当我检查HBase实例时,我发现区域服务器已关闭并且我在日志文件中没有看到任何问题。我什至尝试从phoenix文件夹中

hadoop - 为什么 Phoenix 在执行 UPSERT 命令时总是在 hbase 中添加一个额外的列(名为 _0)?

当我在apachephoenix上执行UPSERT命令时,我总是看到Phoenix在hbase中添加了一个空值的额外列(名为_0),该列(_0)是由凤凰,但我不需要它,像这样:ROWCOLUMN+CELLabccolumn=F:A,timestamp=1451305685300,value=123abccolumn=F:_0,timestamp=1451305685300,value= #Iwanttoavoidgeneratethisrow你能告诉我如何避免这种情况吗?非常感谢! 最佳答案 "Atcreatetime,toimpr

hadoop - Hbase 上的 phoenix 和 hive ETL

phoenix是否适合ETL和聚合?我正在尝试对我的数据进行一些ETL。现在我正在使用hbase来存储我的数据(我们网站上的足迹)。我需要对这些数据进行一些聚合,例如每个url的页面浏览量......等等。根据我的研究,我知道hive可以用于hbase数据的ETL,加上hql提供了sql语言,这样我们就不需要自己写map-reduce代码了。但是当我尝试使用hive(pyhive)查询hbase时,需要很长时间才能完成。此外,如果我有phoenix在hbase上执行sql,我的hbase上还需要hive吗?现在当我尝试使用一些复杂的sql时,phoenix会超时。而且hive非常非常慢

java - Phoenix 无法正确显示负整数值

我正在创建一个值为-17678的HBASE表。但是当我从pheonix取回它时,它给了我不同的正值。RowKey是复合rowkey,rowkey没有问题。Hbase插入:publicclasstest{publicstaticvoidmain(Stringargs[]){Configurationconfig=HBaseConfiguration.create();Connectionconnection=ConnectionFactory.createConnection(config);Tabletable=connection.getTable(TableName.valueOf

【dbeaver】win环境的kerberos认证和Clouders/cdh集群中Kerberos认证使用Dbeaver连接Hive、Impala和Phoenix

一、配置Mitkerberos1.1下载安装MITKERBEROS客户端MITKERBEROS下载较新的版本即可。下载之后一路默认安装即可。注意:不要修改软件安装位置。修改系统环境变量中的Path。将刚刚的安装路径置顶。(不置顶,也要比%JAVA_HOME%\bin和anaconda相关的高)使用CMD命令确认下:1.2修改krb5.conf文件并创建krb5.ini配置文件krb5.conf一般存储在集群的/etc目录下。其中conf文件中仅需要保留一下三大项中的内容即可。如果有此项renew_lifetime=1800d需要删除或注释(行首添加#)[libdefaults]......[r

Phoenix开始投掷(UndefinedFunctionError)功能:crypto.rand_bytes/1是不确定的或私有的

之后并更新到我的系统-Mac,我的Phoenix应用程序编译正常,但是只要我碰到任何路线,就会丢弃此错误。服务器:LocalHost:4000(HTTP)请求:GET/**(退出)升高了一个例外:**(UndefinedFunctionError)函数:crypto.rand_bytes/1不确定或私有。您的意思是:*rand_seed/0*rand_seed/1(crypto):crypto.rand_bytes(20)(plug)lib/plug/request_id.ex:59:Plug.RequestId.generate_request_id/0(plug)lib/plug/requ