草庐IT

hadoop - hadoop-env.sh 文件中的语法错误

coder 2024-01-09 原文

我决定使用 hadoop2.5.0 我设置了 HADOOP_PREFIX,但是当我想查看版本或格式 namenode 时,发生了这个错误:

[hdfs@master1 bin]$ ./hadoop version
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 16: 
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 18: 
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 23: 
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 29: 
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 30: 
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 32: 
'usr/local/hadoop-2.5.0/etc/hadoop/hadoop-env.sh: line 34: syntax error near unexpected token `do
'usr/local/hadoop-2.5.0/etc/hadoop/hadoop-env.sh: line 34: `for f in $HADOOP_HOME/contrib/capacity-scheduler/*.jar; do
Error: Could not find or load main class org.apache.hadoop.util.VersionInfo

操作系统:CentOs 6.5。

模式:全分布式4节点:1主+3从。

最佳答案

  Please verified steps from this :

    Step-1 Create a dedicated user(hduser)for hadoop on three machine from terminal

    Command-1  sudo addgroup hadoop
    Command-2  sudo adduser --ingroup hadoop hduser
    Command-3  sudo adduser hduser sudo



    Step-2 Login to user(hduser) on three machine from terminal

    Command-1 su hduser



    Step-3 Create passwordless ssh between all the machines

    Command-1 ssh-keygen -t rsa -P ""

    Command-2 cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys

    Command-3 ssh-copy-id -i $HOME/.ssh/id_rsa.pub hduser@slave
    hduser@slave means hduser@IP of slave (Eg:hduser@192.168.213.25)
    Execute Command-3 from master machine to the two slave machines



    Step-4 Setup JAVA JDK on all the machines

    Command-1 sudo apt-get install sun-java6-jdk

    Command-2 sudo update-java-alternatives -s java-6-sun



    Step-5 Download hadoop-2.x tar and unzip it on all machines

    Command-1  cd /usr/local

    Command-2  sudo tar xzf hadoop-2.x.tar.gz

    Command-3  sudo mv hadoop-2.x hadoop

    Command-4  sudo chown -R hduser:hadoop hadoop


    Step-6 Open $HOME/.bashrc on all machines

    Command-1 vi $HOME/.bashrc

    Step-7 Add the following lines to the end of opened .bashrc file on all machines
    (Find location of JAVA_HOME on all of the machines. It should be set accordingly on each machine)
    export JAVA_HOME=/usr/local/java/jdk1.6.0_20 
    export HADOOP_INSTALL=/usr/local/hadoop 
    export PATH=$JAVA_HOME/bin:$HADOOP_INSTALL/bin:$PATH 
    export HADOOP_MAPRED_HOME=$HADOOP_INSTALL 
    export HADOOP_COMMON_HOME=$HADOOP_INSTALL 
    export HADOOP_HDFS_HOME=$HADOOP_INSTALL 
    export YARN_HOME=$HADOOP_INSTALL 
    export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop 
    export YARN_CONF_DIR=$HADOOP_INSTALL/etc/hadoop 
    Press Esc and type :wq! To update the file

    Now execute this command

    Command-1 source .bashrc


    Step-8 Update /etc/hosts files on all machine

    I. add ip and name of machines for all the machines in /etc/hosts file
    eg:-

    192.168.213.25 N337
    192.168.213.94 N336
    192.168.213.47 UBUNTU 
    II. comment all other things



    Step-9 Tweak Config Files on all machines

    I.hadoop-config.sh

    Command-1 cd $HADOOP_INSTALL
    Command-2 vi libexec/hadoop-config.sh

    Now add the following line at the start of hadoop-config.sh(Take appropriate location of JAVA_HOME on each machine)
    export JAVA_HOME=/usr/local/java/jdk1.6.0_20

    II.yarn-env.sh

    Command-1 cd $HADOOP_INSTALL/etc/hadoop
    Command-2 vi yarn-env.sh

    #Now add following lines

    export JAVA_HOME=/usr/local/java/jdk1.6.0_20 
    export HADOOP_INSTALL=/usr/local/hadoop 
    export PATH=$JAVA_HOME/bin:$HADOOP_INSTALL/bin:$PATH 
    export HADOOP_MAPRED_HOME=$HADOOP_INSTALL 
    export HADOOP_COMMON_HOME=$HADOOP_INSTALL 
    export HADOOP_HDFS_HOME=$HADOOP_INSTALL 
    export YARN_HOME=$HADOOP_INSTALL 
    export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop 
    export YARN_CONF_DIR=$HADOOP_INSTALL/etc/hadoop 


    #Press Esc and type :wq! To update the file

    III.core-site.xml

    Command-1 vi $HADOOP_INSTALL/etc/hosts/core-site.xml

    Add the following lines

    <configuration> 
    <property> 
       <name>fs.default.name</name> 
       <value>hdfs://N364U:9000</value> 
    </property> 
    </configuration> 

    IV.yarn-site.xml

    Command-1 vi $HADOOP_INSTALL/etc/hosts/yarn-site.xml

    Add the following lines(change machine name according to your machine)


    <configuration>
    <property> 
    <name>yarn.nodemanager.aux-services</name> 
    <value>mapreduce_shuffle</value> 
    </property> 
    <property> 
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> 
    <value>org.apache.hadoop.mapred.ShuffleHandler</value> 
    </property> 
    <property> 
    <name>yarn.resourcemanager.resource-tracker.address</name> 
    <value>N337:8025</value> 
    </property> 
    <property> 
    <name>yarn.resourcemanager.scheduler.address</name> 
    <value>N337:8030</value> 
    </property> 
    <property> 
    <name>yarn.resourcemanager.address</name> 
    <value>N337:8040</value> 
    </property> 
    </configuration>

    V.hdfs-site.xml
    Add the following lines
    <configuration> 
    <property> 
    <name>dfs.replication</name> 
    <value>3</value> 
    </property> 
    </configuration>

    VI.mapred-site.xml
    Add the following lines

    <configuration> 
    <property> 
       <name>mapreduce.framework.name</name> 
       <value>yarn</value> 
    </property> 
    </configuration> 

    Don't forget to save all the configuration files. Cross check.


    Step-10 Add slaves on master machine only

    Command-I vi $HADOOP_INSTALL/etc/hosts/slaves

    Add the IP of the two machines on master machine

    eg: 

    192.168.213.94
    192.168.213.47



    Step-11 Format namenode once

    Command-1 cd $HADOOP_INSTALL

    Command-2 bin/hdfs namenode -format


    Step-12 Now start hadoop

    Command-1 cd $HADOOP_INSTALL
    Command-2 sbin/start-all.sh

关于hadoop - hadoop-env.sh 文件中的语法错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26016521/

有关hadoop - hadoop-env.sh 文件中的语法错误的更多相关文章

  1. ruby - 如何从 ruby​​ 中的字符串运行任意对象方法? - 2

    总的来说,我对ruby​​还比较陌生,我正在为我正在创建的对象编写一些rspec测试用例。许多测试用例都非常基础,我只是想确保正确填充和返回值。我想知道是否有办法使用循环结构来执行此操作。不必为我要测试的每个方法都设置一个assertEquals。例如:describeitem,"TestingtheItem"doit"willhaveanullvaluetostart"doitem=Item.new#HereIcoulddotheitem.name.shouldbe_nil#thenIcoulddoitem.category.shouldbe_nilendend但我想要一些方法来使用

  2. ruby - 使用 RubyZip 生成 ZIP 文件时设置压缩级别 - 2

    我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看ruby​​zip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d

  3. ruby - 其他文件中的 Rake 任务 - 2

    我试图在一个项目中使用rake,如果我把所有东西都放到Rakefile中,它会很大并且很难读取/找到东西,所以我试着将每个命名空间放在lib/rake中它自己的文件中,我添加了这个到我的rake文件的顶部:Dir['#{File.dirname(__FILE__)}/lib/rake/*.rake'].map{|f|requiref}它加载文件没问题,但没有任务。我现在只有一个.rake文件作为测试,名为“servers.rake”,它看起来像这样:namespace:serverdotask:testdoputs"test"endend所以当我运行rakeserver:testid时

  4. ruby-on-rails - 在 Rails 中将文件大小字符串转换为等效千字节 - 2

    我的目标是转换表单输入,例如“100兆字节”或“1GB”,并将其转换为我可以存储在数据库中的文件大小(以千字节为单位)。目前,我有这个:defquota_convert@regex=/([0-9]+)(.*)s/@sizes=%w{kilobytemegabytegigabyte}m=self.quota.match(@regex)if@sizes.include?m[2]eval("self.quota=#{m[1]}.#{m[2]}")endend这有效,但前提是输入是倍数(“gigabytes”,而不是“gigabyte”)并且由于使用了eval看起来疯狂不安全。所以,功能正常,

  5. ruby-on-rails - Ruby net/ldap 模块中的内存泄漏 - 2

    作为我的Rails应用程序的一部分,我编写了一个小导入程序,它从我们的LDAP系统中吸取数据并将其塞入一个用户表中。不幸的是,与LDAP相关的代码在遍历我们的32K用户时泄漏了大量内存,我一直无法弄清楚如何解决这个问题。这个问题似乎在某种程度上与LDAP库有关,因为当我删除对LDAP内容的调用时,内存使用情况会很好地稳定下来。此外,不断增加的对象是Net::BER::BerIdentifiedString和Net::BER::BerIdentifiedArray,它们都是LDAP库的一部分。当我运行导入时,内存使用量最终达到超过1GB的峰值。如果问题存在,我需要找到一些方法来更正我的代

  6. ruby-on-rails - Rails 3 中的多个路由文件 - 2

    Rails2.3可以选择随时使用RouteSet#add_configuration_file添加更多路由。是否可以在Rails3项目中做同样的事情? 最佳答案 在config/application.rb中:config.paths.config.routes在Rails3.2(也可能是Rails3.1)中,使用:config.paths["config/routes"] 关于ruby-on-rails-Rails3中的多个路由文件,我们在StackOverflow上找到一个类似的问题

  7. ruby - 将差异补丁应用于字符串/文件 - 2

    对于具有离线功能的智能手机应用程序,我正在为Xml文件创建单向文本同步。我希望我的服务器将增量/差异(例如GNU差异补丁)发送到目标设备。这是计划:Time=0Server:hasversion_1ofXmlfile(~800kiB)Client:hasversion_1ofXmlfile(~800kiB)Time=1Server:hasversion_1andversion_2ofXmlfile(each~800kiB)computesdeltaoftheseversions(=patch)(~10kiB)sendspatchtoClient(~10kiBtransferred)Cl

  8. ruby - 树顶语法无限循环 - 2

    我脑子里浮现出一些关于一种新编程语言的想法,所以我想我会尝试实现它。一位friend建议我尝试使用Treetop(Rubygem)来创建一个解析器。Treetop的文档很少,我以前从未做过这种事情。我的解析器表现得好像有一个无限循环,但没有堆栈跟踪;事实证明很难追踪到。有人可以指出入门级解析/AST指南的方向吗?我真的需要一些列出规则、常见用法等的东西来使用像Treetop这样的工具。我的语法分析器在GitHub上,以防有人希望帮助我改进它。class{initialize=lambda(name){receiver.name=name}greet=lambda{IO.puts("He

  9. ruby-on-rails - Rails 常用字符串(用于通知和错误信息等) - 2

    大约一年前,我决定确保每个包含非唯一文本的Flash通知都将从模块中的方法中获取文本。我这样做的最初原因是为了避免一遍又一遍地输入相同的字符串。如果我想更改措辞,我可以在一个地方轻松完成,而且一遍又一遍地重复同一件事而出现拼写错误的可能性也会降低。我最终得到的是这样的:moduleMessagesdefformat_error_messages(errors)errors.map{|attribute,message|"Error:#{attribute.to_s.titleize}#{message}."}enddeferror_message_could_not_find(obje

  10. ruby - 如何将脚本文件的末尾读取为数据文件(Perl 或任何其他语言) - 2

    我正在寻找执行以下操作的正确语法(在Perl、Shell或Ruby中):#variabletoaccessthedatalinesappendedasafileEND_OF_SCRIPT_MARKERrawdatastartshereanditcontinues. 最佳答案 Perl用__DATA__做这个:#!/usr/bin/perlusestrict;usewarnings;while(){print;}__DATA__Texttoprintgoeshere 关于ruby-如何将脚

随机推荐