我决定使用 hadoop2.5.0 我设置了 HADOOP_PREFIX,但是当我想查看版本或格式 namenode 时,发生了这个错误:
[hdfs@master1 bin]$ ./hadoop version
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 16:
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 18:
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 23:
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 29:
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 30:
: command not found.5.0/etc/hadoop/hadoop-env.sh: line 32:
'usr/local/hadoop-2.5.0/etc/hadoop/hadoop-env.sh: line 34: syntax error near unexpected token `do
'usr/local/hadoop-2.5.0/etc/hadoop/hadoop-env.sh: line 34: `for f in $HADOOP_HOME/contrib/capacity-scheduler/*.jar; do
Error: Could not find or load main class org.apache.hadoop.util.VersionInfo
操作系统:CentOs 6.5。
模式:全分布式4节点:1主+3从。
最佳答案
Please verified steps from this :
Step-1 Create a dedicated user(hduser)for hadoop on three machine from terminal
Command-1 sudo addgroup hadoop
Command-2 sudo adduser --ingroup hadoop hduser
Command-3 sudo adduser hduser sudo
Step-2 Login to user(hduser) on three machine from terminal
Command-1 su hduser
Step-3 Create passwordless ssh between all the machines
Command-1 ssh-keygen -t rsa -P ""
Command-2 cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys
Command-3 ssh-copy-id -i $HOME/.ssh/id_rsa.pub hduser@slave
hduser@slave means hduser@IP of slave (Eg:hduser@192.168.213.25)
Execute Command-3 from master machine to the two slave machines
Step-4 Setup JAVA JDK on all the machines
Command-1 sudo apt-get install sun-java6-jdk
Command-2 sudo update-java-alternatives -s java-6-sun
Step-5 Download hadoop-2.x tar and unzip it on all machines
Command-1 cd /usr/local
Command-2 sudo tar xzf hadoop-2.x.tar.gz
Command-3 sudo mv hadoop-2.x hadoop
Command-4 sudo chown -R hduser:hadoop hadoop
Step-6 Open $HOME/.bashrc on all machines
Command-1 vi $HOME/.bashrc
Step-7 Add the following lines to the end of opened .bashrc file on all machines
(Find location of JAVA_HOME on all of the machines. It should be set accordingly on each machine)
export JAVA_HOME=/usr/local/java/jdk1.6.0_20
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=$JAVA_HOME/bin:$HADOOP_INSTALL/bin:$PATH
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
export YARN_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
Press Esc and type :wq! To update the file
Now execute this command
Command-1 source .bashrc
Step-8 Update /etc/hosts files on all machine
I. add ip and name of machines for all the machines in /etc/hosts file
eg:-
192.168.213.25 N337
192.168.213.94 N336
192.168.213.47 UBUNTU
II. comment all other things
Step-9 Tweak Config Files on all machines
I.hadoop-config.sh
Command-1 cd $HADOOP_INSTALL
Command-2 vi libexec/hadoop-config.sh
Now add the following line at the start of hadoop-config.sh(Take appropriate location of JAVA_HOME on each machine)
export JAVA_HOME=/usr/local/java/jdk1.6.0_20
II.yarn-env.sh
Command-1 cd $HADOOP_INSTALL/etc/hadoop
Command-2 vi yarn-env.sh
#Now add following lines
export JAVA_HOME=/usr/local/java/jdk1.6.0_20
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=$JAVA_HOME/bin:$HADOOP_INSTALL/bin:$PATH
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
export YARN_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
#Press Esc and type :wq! To update the file
III.core-site.xml
Command-1 vi $HADOOP_INSTALL/etc/hosts/core-site.xml
Add the following lines
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://N364U:9000</value>
</property>
</configuration>
IV.yarn-site.xml
Command-1 vi $HADOOP_INSTALL/etc/hosts/yarn-site.xml
Add the following lines(change machine name according to your machine)
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>N337:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>N337:8030</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>N337:8040</value>
</property>
</configuration>
V.hdfs-site.xml
Add the following lines
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
VI.mapred-site.xml
Add the following lines
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
Don't forget to save all the configuration files. Cross check.
Step-10 Add slaves on master machine only
Command-I vi $HADOOP_INSTALL/etc/hosts/slaves
Add the IP of the two machines on master machine
eg:
192.168.213.94
192.168.213.47
Step-11 Format namenode once
Command-1 cd $HADOOP_INSTALL
Command-2 bin/hdfs namenode -format
Step-12 Now start hadoop
Command-1 cd $HADOOP_INSTALL
Command-2 sbin/start-all.sh
关于hadoop - hadoop-env.sh 文件中的语法错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26016521/
总的来说,我对ruby还比较陌生,我正在为我正在创建的对象编写一些rspec测试用例。许多测试用例都非常基础,我只是想确保正确填充和返回值。我想知道是否有办法使用循环结构来执行此操作。不必为我要测试的每个方法都设置一个assertEquals。例如:describeitem,"TestingtheItem"doit"willhaveanullvaluetostart"doitem=Item.new#HereIcoulddotheitem.name.shouldbe_nil#thenIcoulddoitem.category.shouldbe_nilendend但我想要一些方法来使用
我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看rubyzip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d
我试图在一个项目中使用rake,如果我把所有东西都放到Rakefile中,它会很大并且很难读取/找到东西,所以我试着将每个命名空间放在lib/rake中它自己的文件中,我添加了这个到我的rake文件的顶部:Dir['#{File.dirname(__FILE__)}/lib/rake/*.rake'].map{|f|requiref}它加载文件没问题,但没有任务。我现在只有一个.rake文件作为测试,名为“servers.rake”,它看起来像这样:namespace:serverdotask:testdoputs"test"endend所以当我运行rakeserver:testid时
我的目标是转换表单输入,例如“100兆字节”或“1GB”,并将其转换为我可以存储在数据库中的文件大小(以千字节为单位)。目前,我有这个:defquota_convert@regex=/([0-9]+)(.*)s/@sizes=%w{kilobytemegabytegigabyte}m=self.quota.match(@regex)if@sizes.include?m[2]eval("self.quota=#{m[1]}.#{m[2]}")endend这有效,但前提是输入是倍数(“gigabytes”,而不是“gigabyte”)并且由于使用了eval看起来疯狂不安全。所以,功能正常,
作为我的Rails应用程序的一部分,我编写了一个小导入程序,它从我们的LDAP系统中吸取数据并将其塞入一个用户表中。不幸的是,与LDAP相关的代码在遍历我们的32K用户时泄漏了大量内存,我一直无法弄清楚如何解决这个问题。这个问题似乎在某种程度上与LDAP库有关,因为当我删除对LDAP内容的调用时,内存使用情况会很好地稳定下来。此外,不断增加的对象是Net::BER::BerIdentifiedString和Net::BER::BerIdentifiedArray,它们都是LDAP库的一部分。当我运行导入时,内存使用量最终达到超过1GB的峰值。如果问题存在,我需要找到一些方法来更正我的代
Rails2.3可以选择随时使用RouteSet#add_configuration_file添加更多路由。是否可以在Rails3项目中做同样的事情? 最佳答案 在config/application.rb中:config.paths.config.routes在Rails3.2(也可能是Rails3.1)中,使用:config.paths["config/routes"] 关于ruby-on-rails-Rails3中的多个路由文件,我们在StackOverflow上找到一个类似的问题
对于具有离线功能的智能手机应用程序,我正在为Xml文件创建单向文本同步。我希望我的服务器将增量/差异(例如GNU差异补丁)发送到目标设备。这是计划:Time=0Server:hasversion_1ofXmlfile(~800kiB)Client:hasversion_1ofXmlfile(~800kiB)Time=1Server:hasversion_1andversion_2ofXmlfile(each~800kiB)computesdeltaoftheseversions(=patch)(~10kiB)sendspatchtoClient(~10kiBtransferred)Cl
我脑子里浮现出一些关于一种新编程语言的想法,所以我想我会尝试实现它。一位friend建议我尝试使用Treetop(Rubygem)来创建一个解析器。Treetop的文档很少,我以前从未做过这种事情。我的解析器表现得好像有一个无限循环,但没有堆栈跟踪;事实证明很难追踪到。有人可以指出入门级解析/AST指南的方向吗?我真的需要一些列出规则、常见用法等的东西来使用像Treetop这样的工具。我的语法分析器在GitHub上,以防有人希望帮助我改进它。class{initialize=lambda(name){receiver.name=name}greet=lambda{IO.puts("He
大约一年前,我决定确保每个包含非唯一文本的Flash通知都将从模块中的方法中获取文本。我这样做的最初原因是为了避免一遍又一遍地输入相同的字符串。如果我想更改措辞,我可以在一个地方轻松完成,而且一遍又一遍地重复同一件事而出现拼写错误的可能性也会降低。我最终得到的是这样的:moduleMessagesdefformat_error_messages(errors)errors.map{|attribute,message|"Error:#{attribute.to_s.titleize}#{message}."}enddeferror_message_could_not_find(obje
我正在寻找执行以下操作的正确语法(在Perl、Shell或Ruby中):#variabletoaccessthedatalinesappendedasafileEND_OF_SCRIPT_MARKERrawdatastartshereanditcontinues. 最佳答案 Perl用__DATA__做这个:#!/usr/bin/perlusestrict;usewarnings;while(){print;}__DATA__Texttoprintgoeshere 关于ruby-如何将脚