草庐IT

EXCEPTION_INLINE

全部标签

linux - 异常(exception)如下。 org.apache.flume.FlumeException : Unable to load source type in flume twitter analysis 异常

我正在尝试使用Flume和Hive进行Twitter分析。为了从twitter获取推文,我在flume.conf文件中设置了所有必需的参数(consumerKey、consumerSecret、accessToken和accessTokenSecret)。TwitterAgent.sources=TwitterTwitterAgent.channels=MemChannelTwitterAgent.sinks=HDFSTwitterAgent.sources.Twitter.type=com.cloudera.flume.source.TwitterSourceTwitterAgent

exception - 检查 oozie 工作流状态时获取 HadoopAccessorException

WorkflowName:map-reduce-wfAppPath:hdfs://10.226.226.34:8020/user/user/examples/apps/map-reduce/workflow.xmlStatus:KILLEDRun:0User:userGroup:usersCreated:2013-01-2311:25Started:2013-01-2311:25LastModified:2013-01-2311:26Ended:2013-01-2311:26ActionIDStatusExtIDExtStatusErrCode0000002-1301231624456

hadoop - 与 HDFS 通信 : Exception in thread "main" java. io.IOException : Failed on local exception: java. io.EOFException

publicstaticvoidmain(String[]args)throwsIOException{Configurationconf=newConfiguration();conf.addResource(newPath("/home/myname/hadoop-1.2.1/conf/core-site.xml"));conf.addResource(newPath("/home/myname/hadoop-1.2.1/conf/hdfs-site.xml"));System.out.println("AttemptinginitializationofFileSystem");

java - 获取 E0902 : Exception occured:[Server IPC version 9 cannot communicate with client version 4]

我的hadoop版本是2.7.1,我的oozie版本是3.3.2。我已经创建了oozie.war文件成功。但是,当我尝试使用以下命令在hdfs中创建共享库时,oozie-setup.shsharelibcreate-fshdfs://training-21:54310我得到以下异常,Stacktracefortheerrorwas(fordebugpurposes):--------------------------------------org.apache.oozie.service.HadoopAccessorException:E0902:Exceptionoccured:[

hadoop - AmazonS3Exception 错误请求 : distcp from frankfurt s3 to emr hdfs failing

我正在尝试将文件从法兰克福(eu-central-1)的s3存储桶复制到我在爱尔兰(eu-west-1)通过EMR托管的hdfs。我尝试在以下位置执行的复制命令:hdfsdfs-cp"s3a:///"/user/hadoop/和s3-dist-cp--src"s3a:///"--desthdfs:///user/hadoop/--srcPattern和hadoopdistcp"s3a:///"/user/hadoop/在所有情况下(以及关于所有这些命令的额外选项和s3、s3a、s3n的各种排列)我确实得到类似以下异常的信息:16/01/1511:48:24ERRORtools.Dist

java - Hadoop Java 错误 : Exception in thread "main" java. lang.ClassNotFoundException : com. packt.ch3.etl.ParseWeblogs

我是Hadoop的新手。我按照一些教程尝试在版本为2.7.0的hadoop集群中运行示例,不幸的是我得到如下错误:$javac*.java$jarcvfmyjar.jar*.class$hadoopjar./myjar.jarcom.packt.ch3.etl.ParseWeblogs/user/hadoop/apache_clf.txt/user/hadoop/apache_clf_tsvExceptioninthread"main"java.lang.ClassNotFoundException:com.packt.ch3.etl.ParseWeblogsatjava.net.UR

hadoop - 错误 2997 : Unable to recreate exception from backed error: while using CSVExcelStorage

错误2997:无法从支持的错误中重新创建异常。在这里,我已经解析了apache日志文件,但是当我试图将其导出为csv格式时,会发生此错误。代码和错误:grunt>STORElogsINTO'/home/cloudera/workspace/Test_log.csv'USINGorg.apache.pig.piggybank.storage.CSVExcelStorage(',','NO_MULTILINE','NOCHANGE');2015-12-2410:50:44,821[main]INFOorg.apache.pig.tools.pigstats.ScriptState-Pigf

exception-handling - 如何处理在 map/reduce 期间死亡的数据节点

当map/reduce使用的数据节点出现故障时会发生什么?不应该将作业重定向到另一个数据节点吗?我的代码应该如何处理这种异常情况? 最佳答案 如果datanode宕机,运行在该节点上的任务(假设您也将其用作tasktracker)将失败,这些失败的任务将被分配给其他tasktracker以重新执行。在死数据节点中丢失的数据block将在其他数据节点中可用,因为将跨集群复制数据。因此,即使数据节点出现故障,除了重新执行失败任务的非常短暂的延迟外,不会有任何损失。所有这些都将由框架来处理。您的代码无需担心这一点。

hadoop - FAILED : Error in metadata: MetaException(message:Got exception: java.net.ConnectException 调用 localhost/127.0.0.1:54310 失败

我使用的是Ubuntu12.04、hadoop-0.23.5、hive-0.9.0。我将我的metastore_db分别指定到hive-site.xml中的其他地方$HIVE_HOME/my_db/metastore_dbHadoop运行良好,jps给出ResourceManager,NameNode,DataNode,NodeManager,SecondaryNameNodeHive完美启动,metastore_db和derby.log也创建,所有hive命令运行成功,我可以创建数据库、表等。但是几天后,当我运行showdatabases或showtables时,出现以下错误FAIL

exception - PIG (v0.10.0) FILTER 操作期间异常 : java. lang.Integer cannot be cast to java.lang.String

这是我的(看似微不足道的)PIG脚本,后面是它生成的异常:raw_logs=LOAD'./Apache-WebLog-Samples.d/access_log.txt'USINGTextLoader()AS(line:chararray);logs=FOREACHraw_logsGENERATEFLATTEN(REGEX_EXTRACT_ALL(line,'^(\\S+)\\s+(\\S+)\\s+(\\S+)\\s+\\[([\\w:/]+\\s[+\\-]\\d{4})\\]\\s+"(..*)"\\s+(\\S+)\\s+(\\S+)'))AS(remoteAddr:charar