草庐IT

HADOOP_OPTS

全部标签

macos - Hadoop2.7.3 : Cannot see DataNode/ResourceManager process after starting hdfs and yarn

我使用的是mac和java版本:$java-versionjavaversion"1.8.0_111"Java(TM)SERuntimeEnvironment(build1.8.0_111-b14)JavaHotSpot(TM)64-BitServerVM(build25.111-b14,mixedmode)点击此链接:https://dtflaneur.wordpress.com/2015/10/02/installing-hadoop-on-mac-osx-el-capitan/我先brewinstallhadoop,根据需要配置ssh连接和xml文件,start-dfs.shst

linux - 在 CentOS 中从 Root 提供对 Admin 的 Hadoop 完全访问权限

我已经在下面的目录中安装了Hadoop-2.8.0root。/root/hadoop-2.8.0我有一个名为“KrishnaMahi”的用户。他是管理员。他在下面的目录中。/home/krishnamahi我想向管理员提供Hadoop的完全访问权限。如何在不提供root密码的情况下提供对管理员的完全访问权限?我正在使用CentOS7。请帮我解决。 最佳答案 在root用户下执行以下命令chown-Rkrishnamahi:krishnamahi/root/hadoop-2.8.0然后执行下一条命令成为无密码的root用户visudo

hadoop - 如何避免 Hadoop 中的 Map/Reduce 任务失败

我有一个迭代次数太多的循环和一个在Reducer函数中计算量很大的函数。while(context.getCounter(SOLUTION_FLAG.SOLUTION_FOUND).getValue()MAX_ITR是迭代次数-用户输入问题是当我在Hadoop集群上运行它时出现超时错误并且Reducer任务被终止17/05/0621:09:43INFOmapreduce.Job:TaskId:attempt_1494129392154_0001_r_000000_0,Status:FAILEDAttemptID:attempt_1494129392154_0001_r_000000_0

scala - 使用hadoop parquet处理大数据到CSV输出

我有3个数据集,我想加入并分组它们以获得包含聚合数据的CSV。数据作为parquet文件存储在Hadoop中,我使用Zeppelin运行ApacheSpark+Scala进行数据处理。我的数据集如下所示:user_actions.show(10)user_clicks.show(10)user_options.show(10)+--------------------+--------------------+|id|keyword|+--------------------+--------------------+|00000000000000000001|aaaa1||00000

hadoop - 无法访问 Hive 内部表-AccessControlException

我的用户ID和我的团队无法访问Hive数据库中的任何内部表。当我们也在HUE和“CLI”中启动查询时,我们得到了'AccessControlException',pleasefindthelogbelow,INFO:setmapreduce.job.reduces=INFO:Cleaningupthestagingareamaprfs:/var/mapr/cluster/yarn/rm/staging/keswara/.staging/job_1494760161412_0139ERROR:JobSubmissionfailedwithexceptionorg.apache.hadoo

用于获取用于 hadoop 中各个节点的 dfs 的 Rest Api

是否有任何restAPI或Hadoop指标来获取用于单个节点的dfs。目前,我通过手动执行以下命令获取用于单个节点的dfshdfsdfsadmin-report 最佳答案 它不是RESTAPI,但您应该能够使用NameNode的JMX接口(interface)来提取此信息。http://NAMENODE:DFSPORT/jmx?qry=Hadoop:service=NameNode,name=NameNodeInfo这包含与以下相同的信息:hdfsdfsadmin-report同时发布于:http://NAMENODE:DFSPOR

hadoop - 提取 Pig 中的数据,不包括第一列

我有非结构化数据key1|a1|a11|a21|a31|a41key2|b1|b11key3|c1|c11|c21key4|d1key2|b101|b111key1|a101|a111|a121|a131|a141根据第一列,将记录拆分并分发到目录。z=load'/user/input/data.txt'usingPigStorage('|');splitzintoz1if$0=='key1',z2if$0=='key2',z3if$0=='key3',z4if$0=='key4';z11=foreachz1generate$1,$2,$3,$4,$5;z22=foreachz2gen

hadoop - Hadoop 的 TaskStatus 类中的 getProgress() 方法是什么?

类TaskStatus类有一个方法getProgress()但我不确定这个方法实际返回什么。是花费的时间还是处理的输入数据?我想知道到目前为止在源代码中处理了多少数据。我应该怎么办?我应该使用getProgress()吗? 最佳答案 这是来自here的JavaDoc注释Getthecurrentprogress.Returns:anumberbetween0.0and1.0(inclusive)indicatingtheattempt'sprogress.在这里尝试成为mapreduce作业。

hadoop - 在 Pig 中对多列使用 SUM 时出错

下面是Pig的非结构化输入数据file1.txt---------input|key1|id1|1|1|2|3input|key1|id1|1|0|1input|key1|id1|1|1预期输出是单个记录,其中所有记录的前3列值都相同,我需要总结第4列和第5列。key1|id1|3|2错误如下:data=load'file1.txt'usingPigStorage('|');temp1=foreachdatagenerate$1,$2,sum($3),sum($4);ERRORorg.apache.pig.tools.grunt.Grunt-ERROR1070:Couldnotreso

hadoop - 三个: Presto, hive和impala是否都支持Avro数据格式?

我很清楚Hive中可用的Serde来支持数据格式的Avro模式。熟悉将avro与hive结合使用。AvroSerDe比方说,我已经发现了这个问题。https://github.com/prestodb/presto/issues/5009我需要选择组件以实现快速执行周期。Presto和impala提供更短的执行周期。所以,任何人都请让我澄清一下在不同的数据格式中哪个更好。首先,我现在正在寻找Presto的avro支持。但是,让我们考虑以下存储在HDFS上的数据格式:Avro格式Parquet格式兽人格式哪个最适合用于不同数据格式的高性能。??请提出建议。 最