草庐IT

nfs-provisioner

全部标签

hadoop - HDFS NFS 网关 mount.nfs : Input/output error?

HDFSNFSGateWaymount.nfs:输入/输出错误?1.报错如下:[root@xxsbin]#mount-tnfs-overs=3,proto=tcp,nolock,noacl,synclocalhost://hdfs_ymount.nfs:Input/outputerror2016-03-1015:12:06,350WARNorg.apache.hadoop.hdfs.nfs.nfs3.RpcProgramNfs3:Exception804org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.au

hadoop - 为 Hadoop 名称节点备份添加 QJM 或 NFS

我计划在云上部署一个hadoop集群,其中包含1个主节点、3个数据节点和1个边缘节点。在我这样做之前,我想记住部署策略以便为Namenode提供一个备份节点。我读到辅助名称节点有助于主节点更快启动并更新Editlogs和fsimage。但它不能用作名称节点,以防万一主节点发生故障。如果我能得到一些澄清,我会很高兴。我还想知道关于NamenodeHighAvalibility的最佳选择是什么以及如何部署它。需要注意哪些步骤。我正在使用IBMBigSightsEnterpriseEdition,它管理自动Namdenode高可用性,但我想手动配置系统以充当相同的冷备用解决方案。任何帮助将不

hadoop - 在 NFS 上安装 Hadoop

作为开始,我安装了Hadoop(0.15.2)并设置了一个包含3个节点的集群:NameNode、DataNode和JobTracker各一个。所有守护进程都已启动并正在运行。但是当我发出任何命令时,我都会收到上述错误。例如,当我执行copyFromLocal时,出现以下错误:我错过了什么吗?更多详情:我正在尝试在NFS文件系统上安装Hadoop。我已经安装了1.0.4版本并尝试运行它但无济于事。1.0.4版本不启动数据节点。数据节点的日志文件是空的。因此,我切换回0.15版本,它至少启动了所有守护进程。我认为问题是由于底层NFS文件系统造成的,即所有数据节点和主节点都使用相同的文件和文

hadoop - HDFS NFS 位置使用奇怪的数字用户名值作为目录权限

在NFS安装的HDFS位置的文件夹权限中看到用户名的无意义值,而HDFS位置本身(使用HortonworksHDP3.1)看起来很好。例如。➜~ls-lh/nfs_mount_root/usertotal6.5Kdrwx------.3accumulohdfs96Jul1913:53accumulodrwxr-xr-x.392668751hadoop96Jul2515:17admindrwxrwx---.3ambari-qahdfs96Jul1913:54ambari-qadrwxr-xr-x.3druidhadoop96Jul1913:53druiddrwxr-xr-x.2hbase

hadoop - Hadoop HA QJM 和 NFS 的优缺点是什么?

HadoopHighAvailability需要使用QJM或NFS时有什么规定吗? 最佳答案 QJM明显优于NFS来自Apache文档页面:InorderfortheStandbynodetokeepitsstatesynchronizedwiththeActivenode,thecurrentimplementationrequiresthatthetwonodesbothhaveaccesstoadirectoryonasharedstoragedevice(eganNFSmountfromaNAS).Thisrestricti

hadoop - 将文件从 NFS 或本地 FS 复制到 HDFS

我正在尝试将大量文件(超过100k,总大小为2TB)从NFS复制到HDFS。什么是有效的方法。将其安装到边缘节点后,我尝试了以下选项hdfsdfs-put:它因内存错误而失败,传输也很慢distcp:获取由以下原因引起的错误:org.apache.hadoop.tools.mapred.RetriableFileCopyCommand$CopyReadException:java.io.FileNotFoundException:但是文件存在。我在不使用NFS安装位置的情况下对本地文件进行了相同的尝试。我知道distcp的警告之一是必须分发目的地。它也适用于来源吗?或者它是一个错误并且

NFS 上的 Hadoop 集群

我正在尝试使用NFS在同一局域网上的5台机器上设置一个hadoop集群。我面临的问题是一台机器上的hadoop副本被复制到所有机器上,所以我无法为每个从机提供独有的属性。因此,我收到“无法创建锁”类的错误。常见问题解答建议不应使用NFS,但我别无选择。有没有一种方法可以指定属性,比如Master应该从location1选择它的conf文件,slave1应该从location2选择它的conf文件...... 最佳答案 需要说明的是,计算节点和HDFS存储的配置之间存在差异。您的问题似乎只是配置存储。这可以而且应该在本地完成,或者至少

hadoop - 无法启动 NFS 网关 - Hadoop

我无法在Cloudera中启动NFS网关。它给我错误SupervisorreturnedFATAL。请检查角色日志文件、stderr或stdout但是我能在标准输出中观察到的唯一奇怪的事情是socket.error:[Errno111]Connectionrefused+'['1-ne0']'+echo'Cannotconnecttoport111.'+return1+'['1-eq1']'+echo'Noportmaporrpcbindserviceisrunningonthishost.Pleasestartportmaporrpcbindservicebeforeattempti

hadoop - HDFS 名称节点 HA : Why use NFS rather than simply replicate between the two?

看Facebook使用的AvatarNode方案为HDFSNamenode提供HA,不明白为什么要用NFS。让我感到困惑的是,NFS无论如何都必须复制才能实现HA。主节点必须写入NFS并刷新才能获得HA。为什么不简单地在主节点和辅助节点之间打开一个套接字channel,然后对辅助Namenode执行相同的写入。这将是(大约)相同数量的网络流量,并且似乎具有相同的复制语义。那么问题来了,为什么不这样做呢?我想原因之一可能是NFS存在,因此问题可能更容易实现。但是考虑到在主要和次要之间使用原始套接字channel将写入流接口(interface)(即文件)的相同信息写入NFS的(明显的)简

NFS 文件夹的 PHP is_writable false 尽管可以写入文件

抱歉,我不确定这是否是正确的论坛,因为我不知道问题的原因,我正在面对。我在Raspbian(Stretch9)上安装了NextCloud,并将数据目录移动到挂载的NFS文件夹中。当我尝试访问NextCloud时,收到错误消息“数据目录不可写”。所以我更深入地挖掘,最终可以将问题隔离到PHP7.0和NFS之间的交互:由于某种原因,应用程序可以写入目录,但is_writable返回false。我创建了以下PHP脚本:结果是newfile.txt是在数据目录中用给定文本(JohnDoe)创建的touch成功,即创建checkpoint文件is_writable返回falseScreensho