草庐IT

windows - 在没有 Cygwin 的情况下,如何在 WIndows cmdline 上将文件传输到 Hadoop FS (HDFS)?

我对Hadoop的经验为零,但突然不得不在Windows上与Spark一起使用它。我的问题在这里被问过几次,但我永远无法完全理解我需要的语法,是这个。我正在尝试传输一个名为:gensortText.txt假设在c:\gensortText.txt我知道您可以使用hadoopfs-copyFromLocal。我试过这些东西:hadoopfs-copyFromLocalC:\gensortText.txthdfs://0.0.0.0:19000ERROR:RelativepathinabsoluteURI.hadoopfs-copyFromLocalC:\gensortOutText.tx

java.lang.NoClassDefFoundError : ./oozie-setup.sh sharelib 创建-fs hdfs://localhost:9000

我构建了Oozie并在hdfs中创建共享库,但它给出了以下错误。我按照所有步骤操作,但这是唯一出错的步骤。settingCATALINA_OPTS="$CATALINA_OPTS-Xmx1024m"Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/commons/io/filefilter/IOFileFilteratjava.lang.Class.getDeclaredMethods0(NativeMethod)atjava.lang.Class.privateGetDeclaredMethods(Cla

Hadoop:hadoop fs -put error MSG:[ 有 2 个数据节点正在运行,2 个节点被排除在该操作中。]

enterimagedescriptionhere我已经安装了hadoop2.6.5,当我尝试将文件从本地放到hdfs时,出现了这个异常,我不知道如何解决这个问题!!需要帮助... 最佳答案 这将是一个网络问题。客户端进程(您运行hdfsdfs-put命令的位置)无法连接到DataNode主机。我可以从堆栈跟踪中看出,此时,您已经通过了与NameNode交互的点,因此从客户端到NameNode的连接很好。我建议将此作为客户端和所有DataNode主机之间的基本网络连接故障排除问题来处理。使用ping或nc或telnet等工具来测试连

hadoop - Impala 扫描 MapR-FS 慢

我最近在3节点MapR集群上安装了Impala。当我运行一个简单的查询时。性能不如Impala+HDFS。这是查询:SELECT*FROMft_test,ft_waferWHEREft_test_parquet.id=ft_wafer_parquet.idandmonth=1andday=8andparam=2913;大约用了3秒。但是当使用相同的查询但使用HDFS时。30Gb的表大小需要不到1秒的时间。这是查询配置文件:QueryRuntimeProfile:Query(id=dc4c084615fbf9bb:4261466f00000000):Summary:SessionID:5

hadoop - 未找到 MapR maprcli 命令

我已经安装了mapr-client,mapr-httpfs并且我已经运行了下面的命令:./configure.sh-Nmy.cluster.com-c-secure-C192.168.145.121:7222-HS192.168.145.122结果是:create/opt/mapr/conf/conf.oldConfiguringHadoop-2.7.0at/opt/mapr/hadoop/hadoop-2.7.0DoneconfiguringHadoopCLDBnodelist:192.168.145.121:7222Zookeepernodelist: ExternalZookee

rest - 通过 REST API [MapR 6.1/Hadoop-2.7] 从 Yarn 查询节点标签拓扑

有一个Java和CLI接口(interface)可以查询YarnRM的节点到节点标签(和反向)映射。有没有办法通过REST-API来做到这一点?最初的RM-API搜索显示只有基于节点标签的作业提交是一个选项。遗憾的是,这实际上在MapR-Hadoop(截至6/6/19的6.1)中被破坏了,所以我的代码必须通过实现正确的调度本身来解决这个问题。这可以使用YarnClientJavaAPI(几乎没有-这里还有更多损坏的API)。但由于我想同时针对不同的资源管理器安排作业,在防火墙后面,REST-API是实现此目的最引人注目的选择,而YarnClientAPI的RPC后端不容易传输。我目前最

ruby - 如何使用 Ruby 在 MapR HDFS 中保存文件

有没有办法使用来自Ruby的Hadoop的MapR分发将文件保存在HDFS中?显然,有一个名为thriftfs的ThriftAPI可以从客户端与HDFS通信,但看起来它没有与MapR捆绑在一起。 最佳答案 我也在http://answers.mapr.com/questions/1525/how-to-run-thriftfs-from-mapr?page=1#1528回答了这个问题基本思想是像Ruby这样的语言不需要语言特定的绑定(bind)来访问MapR集群的文件系统。相反,您需要做的就是将集群挂载为NFS文件系统,您可以进行任

java - 无法从 Java 执行 hadoop fs -put 命令

我正在尝试执行hadoopfs-put来自Java代码。当我直接从终端执行这个命令时,它工作正常但是当我尝试使用从Java代码中执行这个命令时String[]str={"/usr/bin/hadoop","fs-put",source,dest};Runtime.getRuntime().exec(str);我收到错误Error:Couldnotfindorloadmainclassfs.我尝试执行一些非hadoop命令,例如来自Java的ls、mkdir命令,它们运行良好,但hadoop命令没有被执行,即使它们在终端上运行良好。这可能是什么原因,我该如何解决?JAVAAPITRY:我

hadoop - default.fs.name 和 hive.metastore.warehouse.dir 不冲突

嗨,当我尝试运行以下命令时LoaddataInpath'/data'intoTableTablename;在hiveshell中抛出以下错误Movefrom:hdfs://hadoopcluster/datato:file:/user/hive/warehouse/Tablenameisnotvalid.Pleasecheckthatvaluesforparams"default.fs.name"and"hive.metastore.warehouse.dir"donotconflict.我的default.fs.name属性在哪里fs.defaultFShdfs://hadoopcl

java - 在 Java 中尝试从 HDFS 复制 FromLocalFile 时出现 “Wrong FS… expected: file:///”

我正在尝试将abc.json从port/example_File/2017复制到HDFS中的另一个位置/port/example_File/2018,通过下面的代码StringexampleFile="hdfs://port/example_File/2017/abc.json"StringtargetFile="hdfs://port/example_File/2018"hdfs.copyFromLocalFile(newPath(exampleFile),newPath(targetFile))我正在低于异常org.jboss.resteasy.spi.UnhandledExcep