草庐IT

主机板

全部标签

ubuntu - 安装配置单元后的 Hadoop(本地和主机目标不匹配)

我在我的笔记本电脑上安装了Hadoop2.2作为单节点集群运行ubuntu并运行字数统计示例。之后我安装了Hive并且Hadoop开始出现错误,即hdfsdfs-lsthrowsIOException:localhostis"utbuntu/127.0.1.1anddestinationhostislocalhost:9000"我在我的主机文件中找到了以下两个条目127.0.0.1localhost127.0.1.1ubuntu#andsomeIPv6entries...我的问题是为什么配置hive后报错,解决方法是什么?非常感谢任何帮助。谢谢! 最佳答案

networking - hadoop中主机名到IP冲突

我正在运行hadoop2.2.0。我在linux12.04中安装了它。示例字数,pi估计器工作正常。问题出在Web界面。我的/etc/hosts文件包含:127.0.0.1localhost127.0.1.1master192.168.2.81master当我使用"localhost"时,它工作正常,如图所示。但是当我将其更改为"master"时,它显示如下图所示的错误如何解决这个问题...为什么不能根据主机名“master”确定IP地址? 最佳答案 只有这两个。127.0.0.1localhost192.168.2.81maste

Hadoop MapReduce (Yarn) 使用不同功率/规范的主机

我目前在集群中有高功率(cpu/ram)主机,我们正在考虑添加一些存储良好但功率低的主机。我担心的是它会降低工作绩效。来自新的(功能较弱的)主机的Map/Reducer将运行得更慢,而功能更强大的将只需要等待结果。有没有办法在Yarn中配置它?也许为主机设置优先级或根据每台机器上的核心数分配映射器/缩减器。谢谢,霍拉修 最佳答案 在YARN中,您可以为每个集群worker提供不同的硬件资源配置。然后,YARN将决定可以为每个工作人员分配多少任务(容器)以平衡工作量。换句话说,您可以在yarn-site.xml中为每个worker分别

hadoop - EC2 主机中 MapReduce 中的 SSH 错误

我已在AmazonEC2主机中安装了ApacheHadoopMapReduce2.6.1,并使用私有(private)IP地址配置了运行时。你可以在下面[2-5]查看我的配置。为了尝试轻松调试我的问题,我已允许安全组[6]中的所有入站流量。问题是,当我启动MapReduce时,我在SSHkey中得到Permissiondenied。我注意到我无法从同一主机sshEC主机。我该如何解决这个错误?ubuntu@ip-XXX-XX-XX-XX:sshubuntu@ip-XXX-XX-XX我想在EC2的不同站点上运行的HDFS实例之间复制数据。使用主机的私有(private)IP地址是否正确?

hadoop - 已接受来自/主机名 :55306 (org. apache.zookeeper.server.NIOServerCnxnFactory 的套接字连接)

我配置了Kafka集群、Storm集群和Hadoop集群。当他们没有工作时,一切都很好。当我在独立模式下提交stormjar(从kafka获取数据并处理,然后将其存储到Hdfs)时,它工作正常将其配置为服务器属性相同的代码并在服务器上运行它后出现以下错误:[2018-07-0312:54:00,370]INFOAcceptedsocketconnectionfrom/192.168.3.222:55306(org.apache.zookeeper.server.NIOServerCnxnFactory)[2018-07-0312:54:00,381]INFOClientattempti

hadoop - 无法从远程主机访问 Hue UI

我正在尝试将Hue用作HDFS的文件浏览器。为此,我克隆了hue存储库并使用README.md中给出的以下命令构建应用程序色调存储库。gitclonehttps://github.com/cloudera/hue.gitcdhuemakeappsbuild/env/bin/huerunserverHueUI可在本地机器上使用默认端口访问,使用urlhttp://localhost:8000一切正常。但是当我使用我的机器ip地址时http://x.x.x.x:8000并尝试访问它一直在处理和等待的HueUI。其他观察-:我可以从远程机器ping主机。没有防火墙阻止端口。(使用nmap端口

Hadoop Ambari 无法确认主机

我尝试使用Ambari来管理Hadoop集群的安装和维护。启动ambariserver后,使用网页搭建Hadoop集群。但是在第3步--确认hosts时,报错如下然后我检查了/var/log/ambari-server的日志,我发现:INFO:root:BootStrappinghosts['qiao']using/usr/lib/python2.6/site-packages/ambari_serverclusterprimaryOS:redhat6withuser'root'sshKeyFile/var/run/ambari-server/bootstrap/1/sshKeypas

docker简介以及docker安装redis、mysql并实现数据挂载宿主机

文章目录1、简介2、前提2.1前提条件:2.2查看自己的内核3、基本组成3.1镜像:3.2容器:3.3仓库:4、安装4.1确定版本:4.2卸载旧版本4.3yum安装gcc相关4.4安装所需软件包4.5设置stable镜像仓库(阿里云镜像仓库)4.6更新yum软件包索引4.7安装DockerCE4.8启动docker4.9测试4.10阿里云镜像加速配置4.11卸载docker5、常用命令:5.1帮助启动类5.2镜像类5.3容器类5.4重要补充5.5小总结6、Docker镜像6.1镜像的分层6.2commit命令6.3总结7、本地镜像发布7.1公有仓库7.2私有仓库8、容器数据卷8.1注意!!!8

hadoop - 使用apache pig从url中提取主机名

例如,url:https://pig.apache.org/docs/r0.14.0/func.htmlurl:http://hadoop.apache.org/docs/r2.7.1/hadoop-project-dist/hadoop-hdfs/HDFSCommands.htmlURL不仅仅局限于上面的例子。我想将主机名提取为:host_name:pig.apache.org谁能帮帮我。 最佳答案 您实际上是想提取主机名,而不是域名。pig.apache.org是主机名,apache.org是域名。幸运的是,Pig的好心人已经编

关于应用RestHighLevelClient操作ElasticSearch出现“远程主机强迫关闭一个现有连接”的问题探究

问题背景 各行各业都在大谈“整合”,每一个“整合”概念背后又是海量数据的支撑。ElasticSearch、Solr等搜索引擎更是在这个风口大显神通。最近在应用ElasticSearch改造会员系统时遇到了这样一个问题:某一用户在长时间无动作后,再向ES发送请求,先是长时间Loading,而后出现报错“远程主机强迫关闭了一个现有连接”。而在报错后再次发送请求一切又正常了。 从现象上推测,很可能是由于连接超时导致的错误(其实并不完全是)。大胆猜想,小心求证(此部分并非正解,着急的同学可跳过)这里梳理下求证过程:我在springboot项目中采用RestHighLevelClient对Elastic