草庐IT

EXCEPTION_INLINE

全部标签

hadoop - OOZIE : Connection exception has occurred [ java.net.ConnectException 连接被拒绝(连接被拒绝)]

我正在尝试在以下工具的帮助下执行Oozie作业网址:https://www.safaribooksonline.com/library/view/apache-oozie/9781449369910/ch05.html执行时ooziejob-run-configtarget/example/job.properties获取错误为:Connectionexceptionhasoccurred[java.net.ConnectExceptionConnectionrefused(Connectionrefused)].Tryingafter1sec.Retrycount=1Connecti

hadoop - hdfs dfs -put : Exception in createBlockOutputStream and java. io.EOFException:过早的 EOF:没有可用的长度前缀

并且我检查了显示处于不健康状态的数据节点的webUI。我不知道为什么会这样。 最佳答案 这是因为你的配置或datanode的任何异常终止(在那个节点上做任何操作)hdfsdfs-put没有内部问题,只需验证目录中的内容或使用命令hdfsdfs-ls/请说明您的问题,除非您不知道要做什么,否则错误不能成为问题陈述。 关于hadoop-hdfsdfs-put:ExceptionincreateBlockOutputStreamandjava.io.EOFException:过早的EOF:没有

hadoop - 致命数据节点.DataNode : Exception in secureMain

我是Hadoop的新手。遵循手册http://toodey.com/2015/08/10/hadoop-installation-on-windows-without-cygwin-in-10-mints/运行我的hadoop我得到了3个错误:1)致命的datanode.DataNode:secureMain中的异常java.lang.RuntimeException:运行命令获取文件权限时出错:ExitCodeExceptionexitCode=-1073741515:2)FATALnodemanager.NodeManager:启动NodeManager时出错java.lang.U

hadoop - org.apache.kylin.job.exception.ExecuteException : java. lang.NoClassDefFoundError: org/apache/hadoop/hive/serde2/typeinfo/TypeInfo 问题

我在https://issues.apache.org/jira/browse/KYLIN-2511上发现了类似的错误环境:hadoop-2.7.1hbase-1.3.2apache-hive-2.1.1-binapache-kylin-1.6.0-hbase1.x-bin我已经尝试将所有的hive库复制到kylin,但是又出现了另一个错误。org.apache.hadoop.mapred.YarnChild:Errorrunningchild:java.lang.NoClassDefFoundError:org/apache/hadoop/hive/serde2/typeinfo/T

exception - MiniDFSCluster 给出 ioexception

我正在尝试在hadoop中进行测试。有代码为:System.setProperty("test.build.data","/folder");配置=新配置();cluster=newMiniDFSCluster(config,1,true,null);但在newMiniDFSCluster(config,1,true,null)中,它抛出异常:java.io.IOException:Cannotrunprogram"du":CreateProcesserror=2,Thesystemcannotfindthefilespecified.atjava.lang.ProcessBuilde

java.lang.Exception : java. lang.UnsatisfiedLinkError:

在执行我的Hadoop应用程序时,出现以下错误:java.lang.Exception:java.lang.UnsatisfiedLinkError:/tmp/javacpp5024882630141562/libjniopencv_core.so:libopencv_core.so.2.3:cannotopensharedobjectfile:Nosuchfileordirectoryatorg.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:399)Causedby:java.lang.Unsatisf

hadoop - 在 hadoop 2.4 中使用 yarn 在集群模式下运行 Spark 时出现 InvalidResourceRequestException Yarn Exception

使用Apachespark1.1.0和hadoop2.4另外,我的集群在CDH5.1.3上我尝试使用以下命令启动sparkwithyarn。./spark-shell--masteryarn./spark-shell--masteryarn-client我得到以下异常:14/10/1521:33:32INFOcluster.YarnClientSchedulerBackend:ApplicationreportfromASM:appMasterRpcPort:0appStartTime:1413388999108yarnAppState:RUNNING14/10/1521:33:44E

apache - 无法在主节点 :SafeMode Exception 上启动配置单元

当我在masternote上运行这个命令时hadoophdumer@HadoopMaster:~$hive但是Hadoop多节点运行良好它显示以下错误:Logginginitializedusingconfigurationinjar:file:/usr/local/apache-hive-1.2.1-bin/lib/hive-common-1.2.1.jar!/hive-log4j.propertiesExceptioninthread"main"java.lang.RuntimeException:org.apache.hadoop.ipc.RemoteException(org.

exception - 帮助 : org. apache.hadoop.hbase.MasterNotRunningException 12.34.56.78:60000

我正在编写一个小型Java应用程序来连接到HBase节点。ZooKeeper连接成功,但是后来,我系统性的报如下错误(当然我已经更改了我的IP地址):org.apache.hadoop.hbase.MasterNotRunningException12.34.56.78:60000有谁知道发生了什么以及如何解决这个问题?谢谢! 最佳答案 好的,解决了这个问题。在某人自杀之前...->问题是由中央maven存储库(当前为0.90.xx)中可用的HBase.jar版本与Cloudera的CDH3安装包(0.89.xx)使用的版本不匹配引

exception - 在本地运行 pig,UDF 程序无法写入文件/文件夹 : PriviledgedActionException

Pig/hadoop新手..在本地跑pig。java-Xmx512m-Xmx1024m-cp$PIGDIR/pig.jarorg.apache.pig.Main-Dpig.temp.dir=/tmp/$USER/$RANDOM-stop_on_failure-xlocalscript-buzz.pig用我的script.pig:(...)buzz=FOREACHfilesGENERATEchiron.buzz.Honey(file,id)asbuzz_file,id;尝试用我的UDFraise写一个文件夹/文件:[JobControl]ERRORorg.apache.hadoop.se