草庐IT

LS_COLORS

全部标签

hadoop fs -ls 内存不足错误

我在HDFS数据目录中有300000多个文件。当我执行hadoopfs-ls时,出现内存不足错误,提示已超出GC限制。每个集群节点都有256GB的RAM。我该如何解决? 最佳答案 您可以通过指定“HADOOP_CLIENT_OPTS”为hdfs命令提供更多内存HADOOP_CLIENT_OPTS="-Xmx4g"hdfsdfs-ls/在这里找到:http://lecluster.delaurent.com/hdfs-ls-and-out-of-memory-gc-overhead-limit/这解决了我的问题,我在一个目录中有超过4

Hadoop 命令,hadoop fs -ls 抛出重试连接到服务器错误?

当我键入hadoopfs-ls时,我收到以下错误消息:deepak@deepak:~$hadoopfs-ls14/03/1912:18:52INFOipc.Client:Retryingconnecttoserver:localhost/127.0.0.1:9000.Alreadytried0time(s);retrypolicyisRetryUpToMaximumCountWithFixedSleep(maxRetries=10,sleepTime=1SECONDS)14/03/1912:18:53INFOipc.Client:Retryingconnecttoserver:loca

hadoop - 'hdfs dfs -ls' 和 'hdfs dfs -ls/' 之间的区别

为什么hdfsdfs-ls指向与hdfsdfs-ls/不同的位置?从下面的截图中可以清楚地看到两个命令给出不同的输出:以上输出的主要原因是什么? 最佳答案 来自官方源码org.apache.hadoop.fs.shell.Ls.java.只需搜索DESCRIPTION字词。它将列出以下语句:-publicstaticfinalStringDESCRIPTION="Listthecontentsthatmatchthespecifiedfilepattern.If"+"pathisnotspecified,thecontentsof/

Hadoop fs -ls 命令获取前 10 个文件

我有一个像这样的hadoop命令:hadoopfs-ls/user/hive/warehouse/mashery_db.db/agg_per_mapi_stats_five_minutes/|sort|awk'{if(index($8,".hive")==0&&$6我想从中获取前10个值,而不是获取目录中的所有文件。 最佳答案 就用hadoopfs-ls/path/of/hdfs/location/|head-10那会起作用。 关于Hadoopfs-ls命令获取前10个文件,我们在Sta

hadoop - 命令 "hadoop fs -ls ."不起作用

我想我已经正确安装了hadoop。如果我执行jps,我可以看到名称节点和数据节点,没问题。当我输入hadoopfs-ls.时,我得到了错误:JavaHotSpot(TM)64-BitServerVMwarning:Youhaveloadedlibrary/opt/db/hadoop-2.4.1/lib/native/libhadoop.so.1.0.0whichmighthavedisabledstackguard.TheVMwilltrytofixthestackguardnow.It'shighlyrecommendedthatyoufixthelibrarywith'execst

Hadoop mkdir 和 ls 命令

我对hadoop2.9进行了全新设置。为了创建一个目录,我试过:>hadoopfs-mkdirtestmkdir:'test':Nosuchfileordirectory为了列出其内容,我尝试了:>hadoopfs-ls/notlistingdirectoriesorfiles请帮助我理解这个问题。 最佳答案 刚安装hadoop时,HDFS是空的。使用完整路径制作一些文件和目录,如下所示:hadoopfs-mkdir/test 关于Hadoopmkdir和ls命令,我们在StackOve

java - Hadoop hdfs 显示 ls : `/home/hduser/input/' : No such file or directory error

我已经使用thistutorial在一台机器上安装了Hadoop2.6.我使用的是Ubuntu12.04机器和Java版本1.6.0_27。我已经为Hadoop操作创建了单独的用户hduser。我已经设置了HADOOP_HOME环境变量的值/usr/local/hadoop我已经提取了Hadoop分布。现在我正在关注example.但是当我执行命令时$HADOOP_HOME/bin/hdfsdfs-ls/home/hduser/input/它给出了以下错误-15/01/0218:32:38WARNutil.NativeCodeLoader:Unabletoloadnative-hado

linux - 看不到 hdfs,Hadoop shell 命令 hadoop fs -ls 给出错误无法访问

我遇到了一个奇怪的问题,我无法在我的hdfs中看到文件。每当我执行hadoopfs-ls时,我都会收到以下错误:hadoopfs-lsWarning:$HADOOP_HOMEisdeprecated.ls:Cannotaccess.:Nosuchfileordirectory.我可以使用诸如copyfromlocal等命令,但仍然无法在hdfs中看到它们,由于这个问题也无法运行pig脚本。如果我执行hadoopfs-ls/*我得到以下错误:hadoopfs-ls/*Warning:$HADOOP_HOMEisdeprecated.Found1itemsdrwxr-xr-x-hduser

Hadoop dfs -ls 返回我的 hadoop/dir 中的文件列表

我在Win7下设置了一个通过cygwin运行的单节点Hadoop配置。通过bin/start-all.sh启动Hadoop之后我跑bin/hadoopdfs-ls它返回我的hadoop目录中的文件列表。然后我运行bin/hadoopdatanode-formatbin/hadoopnamenode-format但是-ls仍然返回我的hadoop目录的内容。据我所知,它应该什么都不返回(空文件夹)。我做错了什么? 最佳答案 您是否编辑了conf文件夹下的core-site.xml和mapred-site.xml?您的hadoop集群似

hadoop fs -ls 结果为 "no such file or directory"

我已经为10节点集群安装并配置了Hadoop2.5.2。1作为主节点,其他节点作为从节点。我在执行hadoopfs命令时遇到问题。hadoopfs-ls命令在HDFSURI上运行良好。在没有HDFSURI的情况下使用时,它会给出消息“ls:`.':Nosuchfileordirectory”ubuntu@101-master:~$hadoopfs-ls15/01/3017:03:49WARNutil.NativeCodeLoader:Unabletoloadnative-hadoopibraryforyourplatform...usingbuiltin-javaclasseswher