草庐IT

hdfs_clusters

全部标签

hadoop - HDFS NFS 网关 "No groups available for user"警告

我正在使用NFS网关服务将一些数据提取到HDFS(CDH5.4.5)中。一切似乎都很好,直到我收到一条警告消息,通知我日志记录目录的可用空间非常低。我快速查看了大日志文件:sudofind/var/log-typef-size+100000k-execls-lh{}\;|awk'{print$9":"$5}'...并注意到一个名为/var/log/hadoop-hdfs/hadoop-cmf-hdfs-NAMENODE-[fqdn-of-name-node].log.out的34GB文件。快速浏览内部显示几乎完全由以下警告组成:2015-11-3013:41:15,535WARNorg

oracle - Sqoop 导入 Oracle 到 HDFS 3 条记录就可以了。全表失败

我通过Sqoop将数据从Oracle导入到HDFS,其中3条记录可以使用以下命令:./sqoop-import--connect--username--password--tableSYS_GROUP--where"Sys_Group_ID作业成功完成,有3条记录。但是当我想导入全表时,却失败了。命令:./sqoop-import--connectjdbc:oracle:thin:@10.58.71.164:1521:dbmss01--username--password--tableSYS_GROUP--fetch-size100日志:15/12/0402:32:19INFOmapr

hadoop - 是否可以使用 Exiftool 获取 Hdfs 图像/视频文件元数据

exiftoolimage.jpg给我linux上图像文件的元数据。我正在尝试获取HDFS图像文件元数据,例如exiftoolhdfs://10.253.11.10:8020/tmp/user/vid2.avi。但是出现类似Filenotfound:的错误。如何读取HDFS文件的元数据? 最佳答案 你可以使用管道:hdfsdfs-cathdfs://10.253.11.10:8020/tmp/user/vid2.avi|exiftool- 关于hadoop-是否可以使用Exiftool获

hadoop - 将 hdfs 文件复制到 hive 表后复制的文件总数

假设如果我将hdfs中的文件加载到配置单元表中,那么该文件的总副本数是多少。在hdfs中,文件被复制了3次,现在复制到hive表会产生额外的副本,总计是否有6个副本?? 最佳答案 在HDFS中,副本数基于复制因子集。在您的情况下,由于复制因子为3,因此将有三个副本。当您执行sqoop从hdfs导入到hive(到内部表)时,数据仅从hdfs上的一个位置复制到hive中的表。但是Hive数据的复制再次根据您的复制因子进行。总共你将得到3(hdfs)+1(hivecopy)*3=>HDFS上的3个副本和hive存储的数据的3个副本(这不是

java - 将文件存储到 S3 : local file vs HDFS

背景使用java将文件上传到s3的简单古老问题S3不支持流式传输(AFAIK),因此在上传之前需要将数据分组到一些适当大小的文件中。在创建上述这些临时文件时,就位置而言有一些选项本地一些指定目录本地在HDFS中(如果可能的话,我什至不知道Hadoop中的H)到hadoop集群中的HDFS问题哪个可能更快?与本地FS相比,使用HDFS(本地或集群)是否有优势,HDFS在本质上更接近S3格式?技术和基础设施EC2、Linux、Java 最佳答案 如果你本地有足够的磁盘空间,就在本地做吧。否则,您可以将数据合并到HDFS上您需要的存储中,

hadoop - 无法使用 hdfs 找到配置单元表目录

我在使用配置单元表时遇到了困难。使用配置单元表时。使用DESCRIBEFORMATTEDtbl_name时,我可以看到位置:hdfs路径。运行查询时,有一些记录返回。当我运行createtablenew_tableasselect*fromtbl_name时。可以创建表,但不能创建数据。在使用hdfsdfs-ls/table目录检查hdfs的地方,它返回“没有这样的文件或目录”。有人知道吗?提前致谢。 最佳答案 您可以看到$HIVE_HOME/conf目录中有hive-default.xml和/或hive-site.xml具有hiv

hadoop - 必须具有 core-site hdfs-site mapred-site 和 yarn-site.xml 的属性

谁能告诉我Core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml必须具备的属性,没有这些属性hadoop就无法启动? 最佳答案 以下设置适用于Hadoop2.x.x的独立和伪节点设置。核心站点.xmlfs.default.namehdfs://localhost:9000hdfs-site.xmldfs.replication1dfs.name.dirfile:///home/hadoop/hadoopdata/hdfs/namenodedfs.data.dirfile:/

hadoop 2.7.3 HDFS Namenode -format No Such FIle or Directory 错误

我正在尝试使用this在Lubuntu机器上安装Hadoop2.7.3|教程。我正处于使用namenode-format命令格式化HDFS的时间点。每当我这样做时,我都会收到此错误:HadoopBot@hadoopmaster-MS-7756:~/Hadoop/hadoop/bin$/home/HadoopBot/Hadoop/hadoop/bin/hdfsnamenode-format/home/HadoopBot/Hadoop/hadoop/bin/hdfs:line304:/home/HadoopBot/Hadoop/hadoop/bin/$/usr/lib/jvm/java-8

scala - 列出文件 scala emr hdfs(缺少 csv 文件)

我试图通过以下方法列出emrhdfs上目录中的所有文件:valdirectory=newFile(directoryPath)valfileStatusListIterator:RemoteIterator[LocatedFileStatus]=FileUtils.fs.listFiles(newPath(directoryPath),true)while(fileStatusListIterator.hasNext){valfileStatus=fileStatusListIterator.nextif(fileStatus.isFile){log.info(s"IteratorFi

json - 在为下游应用程序写入HDFS时,JSON与CSV文件格式的Mertis

我们正在提取源数据(xls)并将其注入hdfs。是否最好以csv或json格式编写这些文件,我们正在考虑选择其中一个,但在调用之前,我们想知道使用其中一个文件的优点和缺点是什么。我们试图找出的因素有:性能(数据量为2-5GB)加载与读取数据从这些文件中提取元数据(结构)信息是多么容易。注入的数据将被同时支持json和csv的其他应用程序使用。 最佳答案 阅读本文,它将解决您的问题:https://community.hitachivantara.com/community/products-and-solutions/pentaho