草庐IT

phoenix-channels

全部标签

RabbitMQ中方法channel.basicAck的使用说明

方法channel.basicAck的作用在RabbitMQ中,channel.basicAck方法用于确认已经接收并处理了消息。方法的参数说明publicvoidbasicAck(longdeliveryTag,booleanmultiple)参数:longdeliveryTag消息的唯一标识。每条消息都有自己的ID号,用于标识该消息在channel中的顺序。当消费者接收到消息后,需要调用channel.basicAck方法并传递deliveryTag来确认消息的处理。booleanmultiple是否批量确认消息,当传false时,只确认当前deliveryTag对应的消息;当传true时

ios - 无法订阅 pubnub channel (错误 107)

关闭。这个问题是notreproducibleorwascausedbytypos.它目前不接受答案。这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能是on-topic在这里,这个问题的解决方式不太可能帮助future的读者。关闭8年前。Improvethisquestion我下载了iOSHelloWorld应用程序并开始运行。我正在尝试将其放入我自己的应用程序中,但在订阅该channel时遇到问题。标题:@property(nonatomic,strong)PNChannel*currentChannel;@property(nonatomic,strong)PNCo

hadoop - 如何使用 Phoenix 运行 sqlline?

当我尝试运行Phoenix的sqlline.pylocalhost命令时,我得到了WARNutil.DynamicClassLoader:Failedtoidentifythefsofdirhdfs://localhost:54310/hbase/lib,ignoredjava.io.IOException:NoFileSystemforscheme:hdfsatorg.apache.hadoop.fs.FileSystem.getFileSystemClass...没有其他事情发生。我也无法让Squirrel工作(当我点击“列出驱动程序”时它卡住了)。根据these说明,我已将pho

java - 编写 MapReduce 时 Apache Phoenix 双数据类型问题

我正在使用ApachePhoenix在Hbase中创建表,因为它提供二级索引功能以及类似sql的数据类型。我使用phoenix创建了一个包含Double和Varchar列的表。CREATETABLEINVOICE(ROWKEYVARCHARNOTNULLPRIMARYKEY,CF1.INVOICEIDVARCHAR,CF1.TOTALAMOUNTDOUBLE,CF1.STATUSVARCHAR,CF1.CREATEDATEDATE);Phoenix将Double值作为ByteArray存储在Hbase中,如下所示column=CF1:TOTALAMOUNT,timestamp=1434

java - 无法使用 JDBC 连接到 Phoenix

我有一个使用HBase和Phoenix设置的Hadoop集群,我正在尝试使用JDBC连接到Phoenix,但我有点无法成功连接。我想使用JDBC通过Python3.x进行连接,但为了简单的测试目的,我在Eclipse中使用Java设置了一个连接。我最初使用Python的第3方库(phoenixdb),但我开始使用这个库时出现超时(随着我的数据库的增长)。在此之后,我更改了我的hbase-site.xml设置中的一些变量,以避免超时,但出于某种原因,这并没有解决我使用这个第3方库的问题。所以我尝试转向JDBC和Java项目-至少是为了测试。我有以下Java代码:publicclassPh

hadoop - phoenix jdbc 不工作,没有异常并卡住

我是phoenix的新手,hbase.hbase表和phoenixView运行良好,我可以通过phoenix获取数据。当我访问jdbc到phoenix时,它卡住了。importjava.sql.Connection;importjava.sql.DriverManager;importjava.sql.ResultSet;importjava.sql.SQLException;importjava.sql.Statement;publicclassPhoenix{privatestaticStringdriver="org.apache.phoenix.jdbc.PhoenixDriv

hadoop - Phoenix sql 查询不适用于大型数据集

我在hbase中有500万条记录,并试图找到记录的总数,然后我在使用phoenix命令行时遇到以下错误。Error:org.apache.phoenix.exception.PhoenixIOException:Failedtogetresultwithintimeout,timeout=60000ms(state=08000,code=101)org.apache.phoenix.exception.PhoenixIOException:org.apache.phoenix.exception.PhoenixIOException:Failedtogetresultwithintim

hadoop - Hbase 和 Phoenix 无法映射整数

我试图用phoenix映射一个hbase表,但结果表在具有整数值的列中给出空值。这是我的hbase表create'foo2',{NAME=>'cf',VERSIONS=>5},{NAME=>'cn'}put'foo2','1','cf:ID','1'put'foo2','1','cf:c1','a'put'foo2','1','cf:c2','b'put'foo2','1','cn:idFoo3',1put'foo2','2','cf:ID','2'put'foo2','2','cf:c1','c'put'foo2','2','cf:c2','d'put'foo2','2','cn:i

hadoop - 添加 phoenix-4.3.0-server.jar 后 region server 在 cloudera 中失败

我在cloudera的/opt/cloudera/parcels/CDH/lib/hbase/lib中添加了phoenix-4.3.0-server.jar。当我尝试启动服务器(区域和主服务器)时,只有主服务器启动。区域服务器有时会暂时启动并立即关闭。这适用于以前版本的phoenix(4.0.0-incubating)。请帮我解决这个问题。 最佳答案 从4.0.0升级到4.3.0失败的原因是兼容性。由于某种原因,4.3.0不兼容从旧版本的phoenix升级。因此,从4.0.0升级到4.1.0,重新启动HBase服务器,然后通过重新启

hadoop - 使用水槽的kafka channel 中的动态主题

是否有可能有一个带有动态主题的kafkachannel-比如可以在其中指定主题header的kafka接收器,或者可以在其中使用header中的值的HDFS接收器?我知道我可以多路复用以使用多个channel(具有一堆channel配置),但这是不可取的,因为我希望有一个动态HDFS接收器,而不是每个kafkachannel都有一个HDFS接收器。 最佳答案 我的理解是FlumeKafkachannel只能映射到单个主题,因为它同时生成和使用该特定主题的日志。查看Flume1.6.0的KafkaChannel.java中的代码,我可