草庐IT

hadoop - 为什么使用 yarn-client 启动 spark-shell 失败并显示 "java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStream"?

我正尝试在家里设置一个集群以满足我的个人需求(学习)。首先我做了Hadoop+Yarn。MR2正在工作。其次-我正在尝试添加Spark但收到有关缺少类的错误。[root@masterconf]#spark-shell--masteryarn-clientExceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/hadoop/fs/FSDataInputStream...Causedby:java.lang.ClassNotFoundException:org.apache.hadoop.fs.FSDataInput

hadoop fs -ls 内存不足错误

我在HDFS数据目录中有300000多个文件。当我执行hadoopfs-ls时,出现内存不足错误,提示已超出GC限制。每个集群节点都有256GB的RAM。我该如何解决? 最佳答案 您可以通过指定“HADOOP_CLIENT_OPTS”为hdfs命令提供更多内存HADOOP_CLIENT_OPTS="-Xmx4g"hdfsdfs-ls/在这里找到:http://lecluster.delaurent.com/hdfs-ls-and-out-of-memory-gc-overhead-limit/这解决了我的问题,我在一个目录中有超过4

Hadoop 命令,hadoop fs -ls 抛出重试连接到服务器错误?

当我键入hadoopfs-ls时,我收到以下错误消息:deepak@deepak:~$hadoopfs-ls14/03/1912:18:52INFOipc.Client:Retryingconnecttoserver:localhost/127.0.0.1:9000.Alreadytried0time(s);retrypolicyisRetryUpToMaximumCountWithFixedSleep(maxRetries=10,sleepTime=1SECONDS)14/03/1912:18:53INFOipc.Client:Retryingconnecttoserver:loca

hadoop - fs.checkpoint.dir 和 dfs.name.dir 有什么区别?

主要是dfs.name.dir属性是用来存储namenode的fsimage到特定位置备份的,fs.checkpoint.dir属性是fsimage合并的位置。这让我有点困惑。任何人都可以详细解释我。 最佳答案 dfs.name.dir是namenode在磁盘中存放fsimage和editlogs的地方。这是一个强制性的位置。没有这个位置,hadoop集群将无法启动。这将位于名称节点主机中。fs.checkpoint.dir是本地文件系统上的目录,DFS辅助名称节点应在其中存储要合并的临时图像。如果这是一个以逗号分隔的目录列表,则图

hadoop - 关于 hadoop fs test 命令输出

我在命令下运行,尝试使用文件名存在或文件名不存在,但它们都没有来自控制台的任何输出。我希望如果文件存在,该命令应该返回零?http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/FileSystemShell.html#testhadoopfs-test-efilename 最佳答案 我认为这意味着命令的返回码是0。你可以检查hadoopfs-test-efilenameecho$? 关于hadoop

Hadoop fs -ls 命令获取前 10 个文件

我有一个像这样的hadoop命令:hadoopfs-ls/user/hive/warehouse/mashery_db.db/agg_per_mapi_stats_five_minutes/|sort|awk'{if(index($8,".hive")==0&&$6我想从中获取前10个值,而不是获取目录中的所有文件。 最佳答案 就用hadoopfs-ls/path/of/hdfs/location/|head-10那会起作用。 关于Hadoopfs-ls命令获取前10个文件,我们在Sta

hadoop - 命令 "hadoop fs -ls ."不起作用

我想我已经正确安装了hadoop。如果我执行jps,我可以看到名称节点和数据节点,没问题。当我输入hadoopfs-ls.时,我得到了错误:JavaHotSpot(TM)64-BitServerVMwarning:Youhaveloadedlibrary/opt/db/hadoop-2.4.1/lib/native/libhadoop.so.1.0.0whichmighthavedisabledstackguard.TheVMwilltrytofixthestackguardnow.It'shighlyrecommendedthatyoufixthelibrarywith'execst

hadoop - 在 Oozie 中覆盖 fs.permissions.umask-mode

我正在运行一个JavaOozie操作,它运行删除和创建文件夹的常用prepare命令。创建的文件夹的umask为022(集群默认值),但我希望它具有002。在工作流的job.properties中,我有fs.permissions.umask-mode=002。如果我在作业运行时查看传递给操作的配置,则不会使用此值,而是使用默认的umask022。fs.permissions.umask-mode=002未在Ambari中锁定,因此可以更改,并且job.properties中的其他变量已正确传播。我也曾尝试将umask属性放在其他地方,例如包含操作的子工作流中的global标记中,以及

hadoop - 如何在 Spark2 中启用 spark.history.fs.cleaner?

我的Spark2和Spark配置都有spark.history.fs.cleaner.enabled=true。它适用于保持/spark-history/干净,但无法为/spark2-history做任何事情。关于为什么它不起作用的任何想法? 最佳答案 spark.history.fs.cleaner.enabledSpark属性控制定期清理磁盘上的事件日志的任务。在你的问题中它是spark.history.fs.cleaner=enabled所以我认为问题出在=字符上。另一个spark.history.fs.cleaner.int

hadoop - java.lang.IllegalArgumentException : Wrong FS 异常

我正在尝试在我的Ubuntu机器上安装oozie。这是我的core-site.xmlhadoop.tmp.dir/app/hadoop/tmpAbaseforothertemporarydirectories.fs.default.namehdfs://localhost:54310Thenameofthedefaultfilesystem.AURIwhoseschemeandauthoritydeterminetheFileSystemimplementation.Theuri'sschemedeterminestheconfigproperty(fs.SCHEME.impl)nam