草庐IT

IOexception

全部标签

python - 在 pig 中注册 python UDF 时遇到 IOException。文件 helloworld.py 不存在

Pytjon用户定义函数:@outputSchema("word:chararray")defhelloworld():return'Hello,World'register'/user/hdfs/helloworld.py'usingjythonasmyfunc;错误:grunt>REGISTER'helloworld.py'USINGorg.apache.pig.scripting.jython.JythonScriptEngineasmyfuncs;2016-05-1612:08:04,909[main]ERRORorg.apache.pig.tools.grunt.Grunt-

java - MapReduce 作业失败——线程中的异常 "main"java.io.IOException : java.net.ConnectException

我正在Hadoop上运行一个简单的计数程序。我的输入文件大小为4GB。由于某种原因,作业不断失败并出现错误:但是,如果我用一个小的输入文件(比如100MB)尝试相同的代码,它工作得很好。我是新手,我似乎找不到任何可行的解决方案。我的设置是伪分布式。我需要进行任何配置更改吗?我已经按照hadoop文档提供的Psuedo分布式设置进行了标准配置。我们将不胜感激任何帮助。 最佳答案 根据您发布的错误堆栈跟踪,ConnectionRefused异常是针对JobHistoryServer的。对于伪分布式设置,无需更改配置即可启动JobHist

java - Mapreduce 作业吐出 java.io.IOException : com. mysql.jdbc.Driver

hadoop-2.7.3我正在创建一个mapreduce作业,它从HDFS输入文件读取数据并将数据写入mysql。它在启动连接时抛出错误。没有其他信息,例如连接被拒绝或classNotFound异常。简单的IO异常,对我来说没有任何意义。Error:java.io.IOException:com.mysql.jdbc.Driveratorg.apache.hadoop.mapreduce.lib.db.DBOutputFormat.getRecordWriter(DBOutputFormat.java:185)atorg.apache.hadoop.mapred.ReduceTask$

java - Hadoop,mapreduce java.io.IOException : Type mismatch in value from map: expected org. apache.hadoop.io.Text,收到 org.apache.hadoop.io.IntWritable

我正在尝试使用两个映射器和一个缩减器。我收到以下错误:我想组合几个键,我希望得到基于每个键的求和输出。我不知道哪一部分是错的。如果您能为我的代码找到一些错误,我们将不胜感激。java.io.IOException:Typemismatchinvaluefrommap:expectedorg.apache.hadoop.io.Text,recievedorg.apache.hadoop.io.IntWritableatorg.apache.hadoop.mapred.MapTask$MapOutputBuffer.collect(MapTask.java:896)atorg.apache

apache-spark - 亚马逊电子病历 : Spark - SparkException java IOException: Failed to create local dir in/tmp/blockmgr*

我有一个带有Spark的AWSEMR集群。我可以连接到它(spark):通过SSH连接到主节点后从主节点来自另一个AWSEMR集群但无法连接到它:从我的本地机器(macOSMojave)来自非emr机器,如Metabase和Redash我已阅读thisquestion的答案.我已经检查过所有节点上的文件夹权限和磁盘空间都没有问题。我的假设是我面临着类似的问题JamesWierzba在评论中提问。但是,我没有足够的声誉在那里添加评论。此外,考虑到它特定于AWSEMR,这可能是一个不同的问题。SSH连接到主节点后连接工作正常。#SSHedtomasternode$ssh-i~/identi

java.lang.Exception : java. io.IOException:设置 hadoop 和 hbase 时值类错误

我是Hadoop和Hbase的新手,我正在尝试让它们协同工作。我构建了一个.java并获得了一个.jar存档,没有任何错误。无论如何,在启动程序时出现此错误:java.lang.Exception:java.io.IOException:wrongvalueclass:classorg.apache.hadoop.hbase.client.Putisnotclassorg.apache.hadoop.io.IntWritableatorg.apache.hadoop.mapred.LocalJobRunner$Job.runTasks(LocalJobRunner.java:462)a

exception - Hadoop:任务跟踪器不会启动 java.io.IOException

我安装了Hadoop,格式化了HDFS,运行了bin/start-all.sh,运行了bin/stop-all.sh,没有出现任何问题。现在每次我运行bin/start-all.sh时,TaskTracker都无法启动,我在TaskTracker日志中得到以下条目。2012-03-2721:22:03,842ERRORorg.apache.hadoop.mapred.TaskTracker:Cannotstarttasktrackerbecausejava.io.IOException:Calltolocalhost/127.0.0.1:9001failedonlocalexcepti

json - Hadoop:无法运行 mapreduce 程序 ..java.io.IOException:error=12

我正在尝试在hadoop中运行mapreduce程序。基本上它接受一个文本文件作为输入,其中每一行都是一个json文本。我使用简单的json在我的映射器中解析这些数据,而reducer做一些其他的事情。我在hadoop/lib文件夹中包含了简单的jsonjar文件。这是下面的代码packageorg.myorg;importjava.io.IOException;importjava.util.Iterator;importjava.util.*;importorg.json.simple.JSONArray;importorg.json.simple.JSONObject;impor

hadoop - Hive 失败,出现 java.io.IOException(拆分超出最大块位置 .... 拆分大小 : 45 maxsize: 10)

配置单元确实需要处理45个文件。每个大小约为1GB。映射器执行完成100%后,配置单元失败并显示上述错误消息。Driverreturned:1.Errors:OKHivehistoryfile=/tmp/hue/hive_job_log_hue_201308221004_1738621649.txtTotalMapReducejobs=3LaunchingJob1outof3Numberofreducetasksissetto0sincethere'snoreduceoperatorStartingJob=job_1376898282169_0441,TrackingURL=http:

hadoop - 获取异常 WARN org.apache.hadoop.streaming.PipeMapRed : java. io.IOException: Broken pipe

出于某些调试目的,我正在现有的工作R脚本中添加打印语句。print("Hello")我在使用Hadoop流式处理执行此代码时收到Brokenpipe异常。如果我再次删除此打印件,它会起作用,对我来说听起来很奇怪!在编辑Rscript时,我正在通过窗口gitbash使用vi。您能否提出解决方案。 最佳答案 如果您的Hadoop集群由Linux节点组成,并且您提交的脚本是在windows或windowgitbash中编辑的,它将无法运行并抛出误导性异常。只需使用vi或emacs在linux中编辑文件。或者使用do2unix命令将文件从d