草庐IT

mapred-default

全部标签

hadoop - Hive 没有完全遵守 core-site.xml 中的 fs.default.name/fs.defaultFS 值

我在一台名为hadoop的机器上安装了NameNode服务。core-site.xml文件的fs.defaultFS(等同于fs.default.name)设置如下:fs.defaultFShdfs://hadoop:8020我有一个名为test_table的非常简单的表,它当前存在于HDFS上的Hive服务器中。即存放在/user/hive/warehouse/test_table下。它是在Hive中使用一个非常简单的命令创建的:CREATETABLEnew_table(record_idINT);如果我尝试将数据加载到本地表中(即使用LOADDATALOCAL),一切都会按预期进行

amazon-ec2 - 使用 s3 作为 fs.default.name 或 HDFS?

我正在EC2上设置Hadoop集群,我想知道如何进行DFS。我所有的数据目前都在s3中,所有map/reduce应用程序都使用s3文件路径来访问数据。现在我一直在研究Amazon的EMR是如何设置的,它似乎为每个作业流设置了一个名称节点和数据节点。现在我想知道我是否真的需要那样做,或者我是否可以只使用s3(n)作为DFS?如果这样做,有什么缺点吗?谢谢! 最佳答案 为了使用S3而不是HDFS,core-site.xml中的fs.name.default需要指向您的存储桶:fs.default.names3n://your-bucke

构建Android的构建Comman“ ninja -c out/default chrome_public_apk”失败了

根据官方网站,我尝试在我的ubuntu.x64.14.04.3中编译Android:https://chromium.googlesource.com/chromium/src/+/master/docs/android_build_instructions.md但是,在我运行“ninja-cout/默认的chrome_public_apk”之后,它将变为故障。带有错误消息如下:xxxx@xxxx-VirtualBox:~/chromium/src$ninja-Cout/Defaultchrome_public_apkninja:Enteringdirectory`out/Default'[2

华为云Sys-default、Sys-WebServer和Sys-FullAccess安全组配置规则

华为云服务器默认安全组可选Sys-default、Sys-WebServer或Sys-FullAccess。default是默认安全组规则,只开放了22和3389端口;Sys-WebServer适用于Web网站开发场景,开放了80和443端口;Sys-FullAccess开放了全部端口。阿腾云atengyun.com分享华为云服务器默认安全组Sys-default、Sys-WebServer和Sys-FullAccess详细配置规则:华为云服务器默认安全组华为云服务器默认可选三个安全组,即Sys-default、Sys-WebServer或Sys-FullAccess,如下图:华为云默认安全组

java - ClassCastException:java.lang.Exception: mapred 中的 java.lang.ClassCastException

我正在编写一个mapreduce应用程序,它接受(键,值)格式的输入并只显示与reducer输出相同的数据。这是示例输入:1500s11960s1Aldus1在下面的代码中,我使用>指定输入格式,并在main()中将分隔符指定为制表符。当我运行代码时,我遇到了错误消息:java.lang.Exception:java.lang.ClassCastException:org.apache.hadoop.io.Textcannotbecasttoorg.apache.hadoop.io.LongWritableatorg.apache.hadoop.mapred.LocalJobRunne

hadoop - 错误 : while processing statement: FAILED: Hive Internal Error: hive. mapred.supports.subdirectories 必须为真

我遇到了一个错误Errorwhileprocessingstatement:FAILED:HiveInternalError:hive.mapred.supports.subdirectoriesmustbetrueifanyoneoffollowingistrue:hive.optimize.listbucketing,mapred.input.dir.recursiveandhive.optimize.union.remove.当我尝试从HDFS目录递归加载数据到hive表时发生此错误我尝试设置以下参数:SETmapred.input.dir.recursive=true;SETh

hadoop - 线程 "main"org.apache.hadoop.mapred.InvalidJobConfException : Output directory not set 中的异常

嘿,你能帮我清除以下错误吗?当我运行Mapreduce作业fopr将数据从hdfs文件插入到hbase表中时,我得到了这个。使用HFileOutputFormat.class,之前我使用MultiTableOutputFormat.class运行相同的程序,它工作正常,但是在将数据插入hbase表时花费了很多时间。那么你能帮帮我吗……:)*job.setMapOutputKeyClass(ImmutableBytesWritable.class);job.setMapOutputValueClass(Put.class);job.setInputFormatClass(TextInpu

Mesos 上的 Hadoop 失败并显示 "Could not find or load main class org.apache.hadoop.mapred.MesosExecutor"

我有一个Mesos集群设置——我已经验证主节点可以看到从节点——但是当我尝试运行Hadoop作业时,所有任务都以LOST状态结束。所有从站stderr日志中都存在相同的错误:Error:Couldnotfindorloadmainclassorg.apache.hadoop.mapred.MesosExecutor这是stderr日志中唯一的一行。按照http://mesosphere.io/learn/run-hadoop-on-mesos/上的说明进行操作,我在HDFS上放置了一个修改后的Hadoop分布,每个从站都可以访问它。在Hadoop发行版的lib目录中,我添加了hadoo

java - 无法在 Oozie java 操作中设置 mapred.job.queue.name

我有一个运行紧迫作业的应用程序。我正在尝试将Oozie配置为使用Java操作运行此作业。我的操作如下,${jobTracker}${nameNode}mapred.job.queue.namelaunchercom.test.Main-Dmapred.output.compress=false-Dmapred.textoutputformat.separator=,-Dcrunch.disable.output.counters=trueActionfailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]但每次我运行Oozi

hadoop - 我可以在不设置 mapred.reduce.tasks=1 的情况下在 map reduce 程序中找到最小值、最大值或平均值吗

我试图了解如何使用mapreduce找到一个非常大的文件的最小值、最大值和平均值。将reduce任务数设置为1是一个显而易见的解决方案,但对于非常大的文件来说并不是最佳选择。我也在考虑编写一个链式MR作业,但最终,你最终在最终作业中使用了一个reducer。有人可以阐明一些其他方法吗?谢谢 最佳答案 无论您的输入数据集有多大,我在这里使用1个reducer都没有发现任何问题。为此,您应该使用组合器功能,该功能应返回其本地Max、本地Min、本地TotalSum和Count并传递给单个reducer。这样,到达reducer的数据量非