草庐IT

linux - 如何通过 unix utils 或 nmon 使用 hadoop fs 获取磁盘信息?

我已经安装了带有mfs(基于hadoopfs)的mapr和一些使用df、dfisk和nmon日志文件从文件系统获取信息的脚本。root@spbswgvml10:/opt/nmon#df-hFilesystemSizeUsedAvailUse%Mountedon/dev/sda18.8G4.4G4.0G53%/none4.0K04.0K0%/sys/fs/cgroupudev2.0G4.0K2.0G1%/devtmpfs396M464K395M1%/runnone5.0M05.0M0%/run/locknone2.0G02.0G0%/run/shmnone100M0100M0%/run/

unix - 如何将hadoop命令的搜索结果写入文件

我只想从hadoop中的目录中获取文件名并将其保存到hadoop或本地计算机中的不同位置。我的文件夹中有超过1000个文件,我想知道文件的名称。我尝试了以下命令,但无法将其保存到某个位置。中的文件名hadoopfs-ls/base/base1|awk'{print$NF}'|grep.json$|tr'\n''';回声$文件名;完成 最佳答案 hadoopfs-ls/base/base1|awk'{print$NF}'|grep.json$|tr'\n'''>somefile.txt 关

bash - 想在 unix 中执行 tail 命令后退出

我正在使用shell脚本,它执行以下命令hadoopfs-cat/input-path/*|grep"text"|tail-1我想在此命令后退出,以便我的shell脚本将执行另一个命令。 最佳答案 您可以使用此sed而不是在找到text后立即退出:sed'/text/q' 关于bash-想在unix中执行tail命令后退出,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/27010

unix - hadoop命令从hadoop中的目录获取最新的子目录名称

如何在hadoop的目录中找到最新创建的子目录?例如在hadoop中,如果我有一个名为mgm的目录,它有2个子目录1和2,如下所示:/user/mgm/1/user/mgm/2我想知道1或2中哪一个是先创建的。hadoopfs-ls-t/user/mgm/|head-1对我不起作用。它说“非法选项-t” 最佳答案 hdfsdfs-ls的-t选项是针对ApacheHadoop2.8.0的新功能,目前尚未发布。这在JIRA问题HADOOP-8934中进行了跟踪.我不确定为什么该选项在ls中可见已有文档。与此同时,另一种选择是使用hdfs

java - 从 hadoop unix 运行时增加 jvm 堆空间

我正在从hadoop命令运行一个java类test.java:$hadooptest我正在使用一个stringBuilder,它的大小快要超出内存了:Exceptioninthread"main"java.lang.OutOfMemoryError:Javaheapspaceatjava.util.Arrays.copyOf(Arrays.java:2882)atjava.lang.AbstractStringBuilder.expandCapacity(AbstractStringBuilder.java:100)atjava.lang.AbstractStringBuilder.a

unix - 使用命令行查找 hdfs 分布式文件中的总行数

我在一个集群上工作,数据集以分布式方式保存在hdfs中。这是我所拥有的:[hmi@bdadev-5~]$hadoopfs-ls/bdatest/clm/data/Found1840items-rw-r--r--3bdasupergroup02015-08-1100:32/bdatest/clm/data/_SUCCESS-rw-r--r--3bdasupergroup344043902015-08-1100:32/bdatest/clm/data/part-00000-rw-r--r--3bdasupergroup344040622015-08-1100:32/bdatest/clm/

hadoop - 具有 unix 时间戳的 Hive float 据类型

我正在使用float数据类型的hive外部表(错误地)来存储Unix纪元时间戳。当我在配置单元外部表上发出where子句时,它会返回一些奇怪的结果。举个例子。selectevent_timefromtbl_namewhereevent_time=1478649561limit10输出:1478649600任何人都可以帮助我理解这里有什么问题吗? 最佳答案 这与其说是Hive问题,不如说是浮点精度的一般问题。您将看到1478649561(整数类型)在浮点表示中被近似以适应32位Java浮点类型的效果。为了在Hive上下文之外以更简单的

python - 如何比较 hdfs 文件和 unix 文件?

我想比较hdfs文件和unix文件。我知道使用cat命令比较文件的一种方法,因为Hadoop分布式文件系统(HDFS)也提供了cat命令。举个例子:#hdfsdfs-ls-R/demo-rw-r--r--3roothdfs1296172014-10-1712:22/demo/abc.log#ls/tmpxyz.log这里我想比较abc.log和xyz.log。还有更好的方法吗?? 最佳答案 您可能会使用shell重定向+diff。diff 关于python-如何比较hdfs文件和unix

hadoop - 将文件从远程 Unix 和 Windows 服务器复制到 HDFS,无需中间暂存

如何在不从命令行进行中间暂存的情况下将文件从远程Unix和Windows服务器复制到HDFS? 最佳答案 您可以使用以下命令:hadoopfs-cp/user/myuser/copyTestFolder/*hdfs://remoteServer:8020/user/remoteuser/copyTestFolder/反之亦然,从服务器复制到本地机器。您还可以阅读hadoopdocumentation. 关于hadoop-将文件从远程Unix和Windows服务器复制到HDFS,无需中间暂

hadoop - Hadoop fs 和常规 Unix 命令有什么区别?

我是Hadoop和HDFS的新手,我想了解为什么需要Hadoopfs命令而不是仅使用Unix命令等价物。它们似乎都有效,我的第一个想法是Hadoop命令直接与HDFSnamenode接口(interface)并将其传播到所有节点。然而,当我只使用Unixshell命令时,情况似乎就是这样。我翻遍了互联网,没有找到简单的解释。非常感谢帮助。或指向差异解释的链接。 最佳答案 如果您通过NFS在HDFS上运行,那么您可以期望大多数简单的命令都能正常工作(例如ls、cd、mkdir、mv、rm、chmod、chgrp、chown)。hado