草庐IT

mapred-default

全部标签

r - as(x, class(k)) 错误 : no method or default for coercing “NULL” to “data.frame”

我目前正面临下面提到的错误,该错误与将NULL值强制转换为数据框有关。数据集确实包含空值,但是我尝试了is.na()和is.null()函数来用其他值替换空值。数据存储在hdfs上,以pig.hive格式存储。我还附上了下面的代码。如果我从key中删除v[,25],代码可以正常工作。代码:AM=c("AN");UK=c("PP");sample.map错误:WarninginasMethod(object):NAsintroducedbycoercionWarninginsplit.default(1:rmr.length(y),unique(ind),drop=TRUE):datal

hadoop - 将 MapR 安装到 20 节点集群的分步过程

我想知道将MapR安装到20节点集群上的分步过程,我还想拥有一个边缘节点。我没有使用Edge节点安装任何hadoop发行版。请帮忙。 最佳答案 你应该看看MapRinstalldocumentation.他们还有一个易于使用的UIinstaller. 关于hadoop-将MapR安装到20节点集群的分步过程,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/41163466/

hadoop - 必须具有 core-site hdfs-site mapred-site 和 yarn-site.xml 的属性

谁能告诉我Core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml必须具备的属性,没有这些属性hadoop就无法启动? 最佳答案 以下设置适用于Hadoop2.x.x的独立和伪节点设置。核心站点.xmlfs.default.namehdfs://localhost:9000hdfs-site.xmldfs.replication1dfs.name.dirfile:///home/hadoop/hadoopdata/hdfs/namenodedfs.data.dirfile:/

python - 使用 Spark 的默认 log4j 配置文件 : org/apache/spark/log4j-defaults. 属性将默认日志级别设置为 "WARN"

我是spark的新手,我将spark2.1.0与python2.7一起使用,但无法正常工作。我一直在寻找一个星期来找到我的问题的解决方案,但没有成功。当我在commmadLine中运行pyspark时出现以下错误:Python2.7.13(v2.7.13:a06454b1afa1,Dec172016,20:42:59)[MSCv.150032bit(Intel)]onwin32Type"help","copyright","credits"or"license"formoreinformation.UsingSpark'sdefaultlog4jprofile:org/apache/s

java - Hadoop input.FileSplit 不能大小写为 mapred.FileSplit

我正在尝试使用以下代码在HadoopMapper中获取文件名:FileSplitfileSplit=(FileSplit)context.getInputSplit();Stringfilename=fileSplit.getPath().getName();我导入的库是:importorg.apache.hadoop.mapred.FileSplit;我得到异常:org.apache.hadoop.mapreduce.lib.input.FileSplitcannotbecasttoorg.apache.hadoop.mapred.FileSplit有人可以帮忙吗?

java - 在 org.apache.hadoop.mapred.MapTask$NewOutputCollector 关闭期间忽略异常

我创建了一个hadoop自定义可写对象,如下所示publicclassResultTypeimplementsWritable{privateTextxxxx;privateTextyyyy;privateTextzzzz;publicResultType(){}publicResultType(Textxxxx,Textyyyy,Textzzzz){this.xxxx=xxxx;this.yyyy=yyyy;this.zzzz=zzzz;}publicTextgetxxxx(){returnthis.xxxx;}publicTextgetyyyy(){returnthis.yyyy;

hadoop - 使用 ambari UI 在 HDP 集群中编辑 hdfs-default.xml

我有一个使用HortonworksDataPlatform2.6.1构建的HBase集群,我想编辑hdfs-default.xml中的一些属性。我们可以使用ambariUI编辑hdfs-default.xml吗?如果我们在所有节点中手动编辑文件,我们需要重新启动哪些服务? 最佳答案 是的,你可以,但Ambari不会编辑默认文件,它会编辑hdfs-site.xml,你至少需要重新启动每个HDFS客户端和服务才能进行更改产生影响。不要手动编辑磁盘上的文件-Ambari会在下次服务重启时覆盖它们

hadoop - 是否可以将 mapR 与纯 apache hadoop 结合起来?

我是hadoop的新手。我听说mapR是挂载hadoopHDFS的更好方法,而不是fuse。但大多数相关文章只是描述mapRhadoop而不是纯apachehadoop。有人有使用mapR安装纯apachehadoop的经验吗?提前致谢。 最佳答案 MapR不仅仅是一种挂载HDFS的方式。MapR包括Hadoop和许多Apache生态系统组件以及许多其他非Apache组件,例如Cascading。它还包括包含Solr的LucidWorks。MapR还包括HDFS的重新实现,称为MaprFS。MaprFS具有更高的性能,具有读写语义,

java - Hadoop Map/Reduce WARN mapred.LocalJobRunner : job_local_0001 java. io.EOFException?

在Eclipse6.91中运行Hadoop0.20.2M/R应用。我在执行后收到这些错误和警告:13/07/2416:52:52INFOjvm.JvmMetrics:InitializingJVMMetricswithprocessName=JobTracker,sessionId=13/07/2416:52:52WARNmapred.JobClient:UseGenericOptionsParserforparsingthearguments.ApplicationsshouldimplementToolforthesame.13/07/2416:52:52WARNmapred.Jo

java - apache avro 中的 mapred 和 mapreduce 包有什么区别?

我正在从事我的项目以整合apacheavro进入我的MapR程序。然而,我很困惑与ma​​pred相比,通过使用新的ma​​preduce包。latter详细说明如何使用在不同的情况下,新的信息较少。但是我知道的是,它们分别对应hadoop的新旧接口(interface)。有没有人有使用ma​​preduce接口(interface)的经验或例子对于输入为非Avro数据的作业(例如TextInputFormat)文件输出为avro文件。 最佳答案 这两个包代表相应的Hadoopmapred和mapreduceAPI的输入/输出格式、