草庐IT

jupyter-client

全部标签

hadoop - Spark 错误 : Server IPC version 9 cannot communicate with client version 4

我运行的是hadoop2.7.0版本、scala2.10.4、java1.7.0_21和spark1.3.0我创建了一个如下所示的小文件hduser@ubuntu:~$cat/home/hduser/test_sample/sample1.txtEid1,EName1,EDept1,100Eid2,EName2,EDept1,102Eid3,EName3,EDept1,101Eid4,EName4,EDept2,110Eid5,EName5,EDept2,121Eid6,EName6,EDept3,99运行以下命令时出现错误。scala>valemp=sc.textFile("/hom

hadoop - java.io.IOException :java. lang.ClassCastException : org. apache.hadoop.hbase.client.Result 无法转换为 org.apache.hadoop.io.Writable

尝试了一个从hive处理hbase中的表的示例。CREATEEXTERNALTABLE命令成功,但是select语句给出类转换异常环境:hive0.12.0,hbase0.96.1,hadoop2.2,Virtualbox上的Ubuntu12.04hive>SHOWTABLES;OKhbatablese_myhiveTimetaken:0.309seconds,Fetched:1row(s)hive>SELECT*FROMhbatablese_myhive;OK**异常失败java.io.IOException:java.lang.ClassCastException:org.apac

hadoop - java.io.IOException : org. apache.hadoop.security.AccessControlException : Client cannot authenticate via:[TOKEN, KERBEROS]

我的配置如下:运行Spark1.2.0,Hadoop2.5.0/YARN,ClouderaCDH5VMCentos6.2运行Windows64位平台8GBRAM下面是从spark-shell运行的命令序列,但在尝试打印custRDD时,我收到Kerberos身份验证错误。我已经从cloudera用户登录到spark-shell,ClouderaVM是Kerberos认证的,默认主体是cloudera@HADOOP.LOCALDOMAIN对于正常的RDD操作,有什么方法可以从spark-shell验证Kerberos吗?或者我遗漏了什么?感谢任何正当的帮助,将得到返回下面是SparkSh

linux - Hadoop 信息 ipc.Client : Retrying connect to server localhost/127. 0.0.1:9000

我阅读了其他关于Hadoop的HDFS配置问题的帖子。然而,他们都没有帮助。所以,我发布我的问题。我关注了thishadoopv1.2.1教程。当我运行hadoopfs-ls命令时出现此错误:16/08/2915:20:35INFOipc.Client:Retryingconnecttoserver:localhost/127.0.0.1:9000.Alreadytried0time(s);retrypolicyisRetryUpToMaximumCountWithFixedSleep(maxRetries=10,sleepTime=1SECONDS)我的core-site.xml文件

hadoop - "No common protection layer between client and server"尝试与 Kerberized Hadoop 集群通信时

我正在尝试以编程方式与Kerberized(CDH5.3/HDFS2.5.0)的Hadoop集群进行通信。我在客户端有一个有效的Kerberostoken。但是我收到如下错误,“客户端和服务器之间没有公共(public)保护层”。这个错误是什么意思,有什么方法可以修复或解决它吗?这与HDFS-5688有关吗??该票似乎暗示必须设置属性“hadoop.rpc.protection”,大概是“身份验证”(也根据例如this)。这是否需要在集群中的所有服务器上设置,然后集群反弹?我无法轻松访问集群,因此我需要了解“hadoop.rpc.protection”是否是真正的原因。看起来'auth

java.lang.NoSuchFieldError : IBM_JAVA for a simple hbase java client in Eclipse 错误

如标题所示。我的源代码是:packagehbase;importjava.io.IOException;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.hbase.HBaseConfiguration;importorg.apache.hadoop.hbase.HColumnDescriptor;importorg.apache.hadoop.hbase.HTableDescriptor;importorg.apache.hadoop.hbase.client.HBaseAdmin;importorg

ElasticSearch的client

在Elasticsearch中,有几种不同类型的客户端可以用来与Elasticsearch集群进行交互。这些客户端包括:TransportClient:TransportClient是基于Java的客户端,用于与Elasticsearch集群进行通信。然而,它已经在Elasticsearch7.0版本中被废弃,不再推荐使用。HighLevelRESTClient:HighLevelRESTClient是一个基于RESTfulAPI的客户端,提供了更简单、更直观的接口来与Elasticsearch集群进行交互。它是目前推荐使用的客户端之一,适用于大多数的应用场景。LowLevelRESTClie

java - hive JDBC ThriftHive$Client.sendBase

我在Hadoop/hive上工作。我已经安装了hadoop和hive,它们在命令提示符下运行良好。我还创建了hive的MySQL元存储。我在hive-site.xml文件中定义了HIVE-DB数据库名称。同名数据库在MySQL中可用>HIVE-DB。但是在hive命令提示符上创建的表在mysql命令提示符中不可用。当我想创建一个配置单元jdbc连接然后得到以下错误..首先是我的程序创建一个jdbc连接packageaa;importjava.sql.Connection;importjava.sql.DriverManager;importjava.sql.ResultSet;impo

mac下jupyter的安装使用

mac下jupyter的安装使用1安装使用步骤打开终端,在环境中(这里是在base环境下),使用pip安装jupyter:pip3installjupyter安装完成之后,输入一下命令即可在浏览器打开jupyternotebook:jupyternotebook2修改jupyter默认的打开目录首先在终端中输入以下命令,获取juypternotebook配置文件(该命令告诉我们配置文件的位置)根据得到的路径,找到对应的文件并打开。(由于.jupyter是隐藏文件夹,进入到该文件夹所在目录后,需要先按command+shift+.,才能找到该文件夹)找到下图的位置:在想要的位置新建一个文件夹,并

hadoop - Apache Toree 与 Anaconda Jupyter Notebook

我想寻求与AnacondaJupyternotebook相关的帮助。我想在Jupyternotebook中编写PySpark和SparkR,我按照在线教程学习如何将ApacheToree与Jupyternotebook一起安装。我正在使用ClouderaManager包裹来管理我的KerberizedHadoop集群。但是,我无法打开ApacheToreePySpark的内核,服务器日志中出现以下错误。[I15:24:50.529NotebookApp]Creatingnewnotebookin[I15:24:52.079NotebookApp]Kernelstarted:8cb483