草庐IT

hdfs-audit

全部标签

hadoop - 命令用法 :when to use hadoop fs and hdfs dfs

正如标题所说,我很困惑何时使用以“hdfsdfs”和“hadoopfs”开头的命令仅供引用,我是使用cloudera4.6quickstartvm的hadoop新手。 最佳答案 下面是三个看似相同但有细微差别的命令hadoopfs{args}hadoopdfs{args}hdfsdfs{args}hadoopfsFS与通用文件系统相关,它可以指向任何文件系统,如本地、HDFS等。因此,当您处理不同的文件系统(如LocalFS、HFTPFS、S3FS等)时,可以使用它hadoopdfsdfs非常特定于HDFS。将适用于与HDFS相关的

java - HDFS是否将不可拆分文件存储在一个数据节点中?

对于不可拆分的文件,如GZIP,将只有一个map作业,因为GZIP文件不可拆分。是否有任何选项或优化将此类文件的所有block存储在一个数据节点中,以便我们至少可以节省网络带宽? 最佳答案 将gzip文件的HDFSblock大小增加到大于文件大小应该可以解决问题。有关设置每个文件的HDFSblock大小的更多信息,请参阅此answer 关于java-HDFS是否将不可拆分文件存储在一个数据节点中?,我们在StackOverflow上找到一个类似的问题: htt

csv - 如何使用 Flume 将一组 csv 文件从我的本地目录复制到 HDFS

如何使用Flume将一组csv文件从我的本地目录复制到HDFS?我尝试使用假脱机目录作为我的来源,但未能复制。然后我使用以下水槽配置来获得我的结果:agent1.sources=tailagent1.channels=MemoryChannel-2agent1.sinks=HDFSagent1.sources.tail.type=execagent1.sources.tail.command=tail-F/home/cloudera/runs/*agent1.sources.tail.channels=MemoryChannel-2agent1.sinks.HDFS.channel=M

hadoop - 我的 hdfs 总是向许多损坏的 block 报告

我有一个运行hdfs(hadoop2.6.0)的集群,但它的名称节点向我报告了一个关于丢失block的错误:Thereare102missingblocks.Thefollowingfilesmaybecorrupted:当我跳转到名称节点并读取登录(名称节点文件日志)时,我收到许多警告,例如:ErrorreportfromDatanodeRegistration(10.3.24.71,datanodeUuid=b1aa43eb-bd9c-4e1a-b919-d7c99ad0fcdf,infoPort=50075,ipcPort=50020,storageInfo=lv=-56;cid

hadoop - Flink 在 YARN : Amazon S3 wrongly used instead of HDFS 上

我关注了FlinkonYARN'ssetupdocumentation.但是,当我使用./bin/yarn-session.sh-n2-jm1024-tm2048运行时,在向Kerberos进行身份验证时,出现以下错误:2016-06-1617:46:47,760WARNorg.apache.hadoop.util.NativeCodeLoader-Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicable2016-06-1617:46:48,518INFOorg.a

scala - Spark-scala 如何使用 HDFS 目录分区

为了减少处理时间,我按日期对数据进行分区,以便我只使用所需的日期数据(不是完整的表格)。所以现在在HDFS中,我的表格存储如下src_tbl//maindirtrg_tbl2016-01-01//subdir2015-12-302016-01-022015-12-312016-01-032016-01-012016-01-03现在我想从src_tbl中选择min(date)这将是2016-01-01从trg_tbl我想使用>=2016-01-01(src_tblmin(date))目录中的数据2016-01-01和2016-01-03数据`如何使用Spark-scala从hdfs选择所

hadoop - 无法从给定路径 : hdfs://. 读取架构 ..avsc

我尝试通过以下步骤创建一个配置单元表:使用sqoop将数据加载到hdfs(完成)sqoop还创建了一个avsc文件,我将其上传到hdfs在配置单元中,我想使用以下语句创建一个表:命令:CREATEEXTERNALTABLEkontoauszugROWFORMATSERDE'org.apache.hadoop.hive.serde2.avro.AvroSerDe'STOREDASINPUTFORMAT'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'OUTPUTFORMAT'org.apache.hadoop.hive

hadoop - Spark RDD 和 HDFS 数据 block 的区别

请帮助我理解HDFS的数据block和Spark中的RDD之间的区别。HDFS将数据集分发到集群中的多个节点作为具有相同大小的block,数据block将被复制多次并存储。RDD被创建为并行集合。Parallelized集合的元素是跨节点分布还是存储在内存中处理?和HDFS的数据block有关系吗? 最佳答案 IsthereanyrelationtoHDFS'datablocks?一般不会。他们解决不同的问题RDD是关于分配计算和处理计算失败的。HDFS用于分配存储和处理存储故障。分布是公分母,但仅此而已,故障处理策略明显不同(分别

hadoop - 如何在不将整个文件下载到本地磁盘的情况下下载 tar.gz 并将其打包到 hdfs?

我想从网上直接提取tar.gz文件到hdfs中。跳过下载到本地磁盘阶段,因为文件可能非常大。这一切都来自简单的cmd行脚本(bash、wget等) 最佳答案 好的,看起来这个衬垫有效:wget-O-http://...tar.gz|tarxfz---to-stodout|hadoopdfs-put-/somepath 关于hadoop-如何在不将整个文件下载到本地磁盘的情况下下载tar.gz并将其打包到hdfs?,我们在StackOverflow上找到一个类似的问题:

apache-spark - 从 Kafka 读取消息并写入 HDFS

我正在寻找从Kafka读取消息(大量消息,每天大约100B)的最佳方式,在读取消息后我需要对数据进行操作并将其写入HDFS。如果我需要以最佳性能执行此操作,那么从Kafka读取消息并将文件写入HDFS的最佳方式是什么?哪种编程语言最适合?我是否需要考虑为此使用Spark等解决方案? 最佳答案 您应该为此使用Spark流(参见here),它提供了Kafka分区和Spark分区之间的简单对应关系。或者您可以使用UseKafkaStreams(参见more)。KafkaStreams是用于构建应用程序和微服务的客户端库,其中输入和输出数据