草庐IT

HDFS_DATANODE

全部标签

hadoop - 必须具有 core-site hdfs-site mapred-site 和 yarn-site.xml 的属性

谁能告诉我Core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml必须具备的属性,没有这些属性hadoop就无法启动? 最佳答案 以下设置适用于Hadoop2.x.x的独立和伪节点设置。核心站点.xmlfs.default.namehdfs://localhost:9000hdfs-site.xmldfs.replication1dfs.name.dirfile:///home/hadoop/hadoopdata/hdfs/namenodedfs.data.dirfile:/

hadoop 2.7.3 HDFS Namenode -format No Such FIle or Directory 错误

我正在尝试使用this在Lubuntu机器上安装Hadoop2.7.3|教程。我正处于使用namenode-format命令格式化HDFS的时间点。每当我这样做时,我都会收到此错误:HadoopBot@hadoopmaster-MS-7756:~/Hadoop/hadoop/bin$/home/HadoopBot/Hadoop/hadoop/bin/hdfsnamenode-format/home/HadoopBot/Hadoop/hadoop/bin/hdfs:line304:/home/HadoopBot/Hadoop/hadoop/bin/$/usr/lib/jvm/java-8

scala - 列出文件 scala emr hdfs(缺少 csv 文件)

我试图通过以下方法列出emrhdfs上目录中的所有文件:valdirectory=newFile(directoryPath)valfileStatusListIterator:RemoteIterator[LocatedFileStatus]=FileUtils.fs.listFiles(newPath(directoryPath),true)while(fileStatusListIterator.hasNext){valfileStatus=fileStatusListIterator.nextif(fileStatus.isFile){log.info(s"IteratorFi

json - 在为下游应用程序写入HDFS时,JSON与CSV文件格式的Mertis

我们正在提取源数据(xls)并将其注入hdfs。是否最好以csv或json格式编写这些文件,我们正在考虑选择其中一个,但在调用之前,我们想知道使用其中一个文件的优点和缺点是什么。我们试图找出的因素有:性能(数据量为2-5GB)加载与读取数据从这些文件中提取元数据(结构)信息是多么容易。注入的数据将被同时支持json和csv的其他应用程序使用。 最佳答案 阅读本文,它将解决您的问题:https://community.hitachivantara.com/community/products-and-solutions/pentaho

hadoop - hdfs 和 hive 有什么关系?

我有psudeo分布式hadoop环境,使用sqoop和hive进行数据导入和分析。我使用sqoop将数据从mysql导入到hive并且它工作正常,我在我的hive位置获取了数据,即/user/hive/warehouse/我可以看到hive中的数据表。我的疑问是:当我从mysql导入到hive(构建在hadoop之上)时,数据会存储在hadoop中吗?为什么它在我的hdfs中创建/user/hive/warehouse?Hive如何处理数据?如果我在mysql中更新数据,我可以使用sqoop增量导入来更新hdfs中的数据,但如果我直接使用hive导入,它将反射(reflect)在hi

r - 使用sparkR从hdfs导入rstudio中的csv文件

我在HadoopHDFS上存储了.csv文件,hadoopdfs-ls/afsDEPRECATED:Useofthisscripttoexecutehdfscommandisdeprecated.Insteadusethehdfscommandforit.17/01/1215:15:49WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicableFound1item-rw-r--r--2hdusersupergroup

scala - 在 Scala 中从 HDFS 返回路径

我想返回文件的路径,我在其中提供了一个文件夹并在该文件夹中搜索“部分”文件。deflistDirectoriesGetPartFile(folderPath:String):org.apache.hadoop.fs.Path{valpath=newPath(folderPath)if(fileSystem.isDirectory(path)){valst=fileSystem.listStatus(path)for(i我想返回part-xxx文件。我怎样才能实现它? 最佳答案 这里有几个选项(按照符合Scala习惯用法的升序排列)。

hadoop - 如何从每个节点访问 hadoop-yarn 应用程序上的 hdfs?

如何在“HADOOP(2.5.2)YARN应用”中访问HDFS并从各个节点读写文件?我通常知道YARN应用程序运行在HDFS上。我没有可以回答这些基本问题的网站或文档,所以我想问一下。 最佳答案 YARN应用程序在YARN中运行(或至少请求内存空间),而不是HDFS。HDFS只是一个用于文件存储的文件系统。您使用多种工具进行读写,例如HadoopCLI、MapReduce、ApacheSpark等。例如CLI是hadoopfs-put/local-filehdfs://remote/file这些应用程序是否由YARN管理与HDFS文

scala - HDFS : java. io.FileNotFoundException : File does not exist: name. _COPYING

我正在使用Scala处理SparkStreaming。我需要使用此行从HDFS目录动态读取.csv文件:vallines=ssc.textFileStream("/user/root/")我使用以下命令行将文件放入HDFS:hdfsdfs-put./head40k.csv它适用于相对较小的文件。当我尝试使用更大的一个时,出现此错误:org.apache.hadoop.ipc.RemoteException(java.io.FileNotFoundException):Filedoesnotexist:/user/root/head800k.csv._COPYING我能理解为什么,但我不

java - Hadoop 2.7 - 在 HDFS 中创建目录的简单 Java 代码

我正在尝试的是以编程方式使用Java在HDFS中创建一个目录。我收到此错误。线程“main”中的异常java.util.ServiceConfigurationError:org.apache.hadoop.fs.FileSystem:Providerorg.apache.hadoop.fs.s3a.S3AFileSystem无法实例化引起:java.lang.NoClassDefFoundError:com/amazonaws/AmazonServiceException由以下原因引起:java.lang.ClassNotFoundException:com.amazonaws.Am