草庐IT

Stop-Start

全部标签

ubuntu - HADOOP - 权限被拒绝执行 start-all.sh

我正在尝试在笔记本电脑上安装Hadoop。我遵循了本指南:https://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/当我尝试运行start-all.sh时,我得到了这个:vava@vava-ThinkPad:/usr/local/hadoop-3.1.1/sbin$bashstart-all.shWARNING:AttemptingtostartallApacheHadoopdaemonsasvavain10seconds.WARNING:Thisisnotarec

windows - Hadoop start-all.cmd 命令 : datanode shutting down

我正在尝试在我的windows10中安装hadoop引用:https://github.com/MuhammadBilalYar/Hadoop-On-Window/wiki/Step-by-step-Hadoop-2.8.0-installation-on-Window-10Hadoopstart-all.cmd命令成功启动namenode、resourceManager和nodeManager但datanode没有启动错误::checker.StorageLocationChecker:ExceptioncheckingStorageLocation[DISK]file:/C:/ha

ubuntu - Hadoop - start-all.sh 未执行

我今天更新到Ubuntu16.04,当我执行start-all.sh时,它会抛出这个:ThisscriptisDeprecated.Insteadusestart-dfs.shandstart-yarn.sh/usr/local/hadoop/bin/hdfs:line304:/usr/lib/jvm/java-7-openjdk-amd64/bin/java:NosuchfileordirectoryStartingnamenodeson[]localhost:startingnamenode,loggingto/usr/local/hadoop/logs/hadoop-hduser

scala - Spark : Calculate event end time on 30-minute intervals based on start time and duration values in previous rows

我有一个带有event_time字段的文件,每条记录每30分钟生成一次,并指示事件持续了多少秒。示例:Event_time|event_duration_seconds09:00|80009:30|180010:00|270012:00|100013:00|1000我需要将连续的事件转换为一个具有持续时间的事件。输出文件应如下所示:Event_time_start|event_time_end|event_duration_seconds09:00|11:00|530012:00|12:30|100013:00|13:30|1000ScalaSpark中是否有一种方法可以将数据帧记录与

ubuntu - Accumulo 的 Start-all.sh 抛出多个关于 : Max open files on localhost 的警告

我收到关于以下内容的多个警告:WARN:Maxopenfilesonlocalhostis1024,recommend32768我不确定这是关于什么的。/usr/local/accumulo$./bin/start-all.sh&[1]27142/usr/local/accumulo$StartingmonitoronlocalhostWARN:Maxopenfilesonlocalhostis1024,recommend32768Startingtabletservers....doneStartingtserveronlocalhostWARN:Maxopenfilesonloca

Hadoop:连接到主机 localhost 端口 22:运行 start-dfs.sh 时连接被拒绝

当使用start-dfs.sh启动最新的(2014年10月)Hadoop时,我们看到:connecttohostlocalhostport22:Connectionrefusedwhenrunning 最佳答案 安装openssh服务器。对于Ubuntu命令是:sudoapt-getinstallopenssh-server在hadoop-env.sh文件中(存在于/etc/hadoop中)添加以下行:exportHADOOP_SSH_OPTS="-p22" 关于Hadoop:连接到主机

hadoop - cdh4.3,日志异常,./start-dfs.sh后,datanode和namenode启动失败

这是来自hadoop-datanode-...log的日志:FATALorg.apache.hadoop.hdfs.server.datanode.DataNode:block池初始化失败block池BP-1421227885-192.168.2.14-1371135284949(存储IDDS-30209445-192.168.2.41-50010-1371109358645)服务于/192.168.2.8:8020org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.protocol.Disallowe

hadoop - Apache Hadoop 单节点设置中的 start-all.sh 失败

我在Ubuntu12.04上安装了ApacheHadoop1.0.4。我按照http://hadoop.apache.org/docs/stable/single_node_setup.html上的说明进行操作,并到达“执行”部分。我在$bin/start-all.sh上失败了,错误信息如下。我的用户名是anson。$start-all.shmkdir:cannotcreatedirectory`/var/log/hadoop/anson':Permissiondeniedchown:cannotaccess`/var/log/hadoop/anson':Nosuchfileordir

hadoop - 运行命令 stop-all.sh 时没有 JobTracker 和 NameNode 停止

在我的案例中,jobtracker和namenode已启动,但无法通过运行stop-all.sh命令停止它当我键入jps时得到以下消息:[root@iqhadoop]#jps25258JobTracker8082SecondaryNameNode7944DataNode8404Jps8321TaskTracker24237NameNode但是当我尝试通过在命令行上运行stop-all.sh来停止它时,收到以下消息:[root@iqbin]#bashstop-all.shnojobtrackertostoplocalhost:stoppingtasktrackernonamenodeto

hadoop - HDP : unable to start Phoenix sqlline. py

我正在使用SandboxHDP2.2我做了一个yuminstallphoenix(版本是4.2)但是当我运行这些时:./sqlline.pylocalhost:2181./sqlline.pylocalhost./sqlline.pysandbox.hortonworks.com:2181./sqlline.pysandbox.hortonworks.com我得到了错误:15/07/0308:26:31ERRORclient.ConnectionManager$HConnectionImplementation:Thenode/hbaseisnotinZooKeeper.Itshoul