草庐IT

HDFS_NAMENODE

全部标签

hadoop - 一个小文件是如何存储在HDFS中的

在hadoop权威指南中:以128MB的block大小存储的1MB文件使用1MB的磁盘空间,而不是128MB。这是什么意思?它是在一个128MB的block中使用1MB的大小,还是使用了1MB并且剩余的127MB被其他文件免费占用? 最佳答案 这通常是对HDFS的误解——block大小更多的是关于单个文件如何拆分/分区,而不是关于文件系统的某些保留部分。在这些方案的背后,每个block都作为普通文件(以及相关的校验和)存储在DataNodes底层文件系统中。如果您查看磁盘上的数据节点文件夹,您应该能够找到该文件(如果您知道文件的bl

hadoop - hdfs snapshot可以用来恢复hive吗

知道hive使用metastore和hdfs,是否可以将从正在运行的hadoop-hive集群获取的hdfs快照恢复到新的hadoop-hive集群?我认为必须执行的一个步骤是在hive中再次创建表,但是这些表会自动连接到快照文件吗?有关此主题的一个链接位于ApacheMailArchives.我希望对此是否有更新或更好的答案。 最佳答案 Hive使用2(元数据+hdfs中的仓库数据)试一试:(没查过,请注意)1)使用dstcp将当前Hadoop-hiveCluster中的hive仓库数据复制到新的Hadoop-hiveCluste

java - 使用 Java API 读取 HDFS 的默认 block 大小

我想使用java程序从hdfs-site.xml中读取这个默认block大小值?任何人都可以帮忙吗?dfs.blocksize134217728 最佳答案 我发现有更好的选择,而不是从HDFS-SITEXML读取默认block大小。Configurationconf=newConfiguration();conf.set("fs.defaultFS","hdfs://0.0.0.0:8020");FileSystemfs=FileSystem.get(conf);Configurationcconf=fs.getConf();Str

hadoop - 在 Hadoop (HDFS) 中获取文件的最后 5 行

我的Hadoop集群(在HDFS上)中有几个文件。我想查看每个文件的最后5行。是否有一个简单的命令来执行此操作? 最佳答案 如果你想特别查看HDFS文件的最后5行(而不是更多或更少),你可以使用以下命令,但它不是很有效:hadoopfs-cat/your/file/with/path|尾部-5这是hadoop中一个更高效的命令,但它返回数据的最后一千字节,而不是用户指定的行数:hadoopfs-tail/your/file/with/path这是对hadooptail命令的引用:http://hadoop.apache.org/do

hadoop - 如何通过水槽将 Twitter 数据通过代理提供给 hdfs?

我已经安装了flume并且正在尝试将Twitter数据输入到hdfs文件夹中。我的flume.conf文件如下所示:TwitterAgent.sources=TwitterTwitterAgent.channels=MemChannelTwitterAgent.sinks=HDFSTwitterAgent.sources.Twitter.type=com.cloudera.flume.source.TwitterSourceTwitterAgent.sources.Twitter.channels=MemChannelTwitterAgent.sources.Twitter.consu

hadoop - 网格计算和HDFS(Hadoop分布式文件系统)有什么区别?

有没有人能解释一下HDFS和网格计算之间的主要区别? 最佳答案 我认为您必须在您的问题中将HDFS替换为Hadoop。Hadoop是一个框架,它允许使用简单的编程模型-基于YARN(YetAnotherResourceNegotiator)的MapReduce框架跨商品计算机集群分布式处理大型数据集。HDFS是一种文件系统,设计用于存储具有流数据访问模式的超大文件,在商用硬件上运行集群。网格计算方法基于在一组机器上分配工作,这些机器访问由存储区域网络(SAN)托管的共享文件系统。这适用于主要计算密集型作业,但当节点需要访问更大的数据

hadoop - 使用 Sqoop 将 RDBMS 更新到 HDFS

我正在尝试编写一个sqoop作业来实现以下要求。我有一个XYZ表,每天可能会创建大约100万条新记录和50万条更新。我将有一个EndofdaySqoop作业,它应该将增量数据从XYZ获取到HDFS,还获取更新的记录并将其与HDFS同步。我很乐意实现第1点,但找不到第2点的可行解决方案。请帮忙!!!!谢谢,拉古 最佳答案 对于这种特殊情况,您可以在需要的地方执行增量sqooplastmodified–check-columnlast_modified_col–last-value“2014-10-0315:29:48.66″示例查询请

linux - 从本地文件上传数据到 hdfs 时出错

您好,我刚刚开始研究Hadoop。当我尝试在HDFS上上传数据以在hadoop上运行mapreduce作业时。我遇到了问题。我运行以下命令hduser@bharti-desktop:/home/maitreyee/hadoop$bin/hadoopdfs-copyFromLocal/home/hduser/gutenberg/user/hduser/gutenberg然后在终端中弹出以下错误:14/12/0416:59:48WARNconf.Configuration:badconffile:elementnot14/12/0416:59:48WARNconf.Configuratio

hadoop - 从远程位置(某个远程机器上的本地文件系统)拉取一个文件到 Hadoop HDFS

我在不属于Hadoop(或HDFS)数据中心的机器(比如A)中有文件。所以机器A位于远离HDFS数据中心的位置。是否有脚本或命令或程序或工具可以在连接到Hadoop(数据中心的一部分)的机器上运行并将文件从机器A直接拉入HDFS?如果是,最好和最快的方法是什么?我知道有很多方法,比如WebHDFS、Talend,但它们需要从机器A运行,要求是避免这种情况并在数据中心的机器上运行它。 最佳答案 有两种方法可以实现:可以使用scp拉取数据并存放到一个临时位置,然后复制到hdfs,删除临时存放的数据。如果您不想将其保留为两步过程,您可以编

hadoop - Flume to HDFS 将一个文件分割成很多文件

我正在尝试将一个700MB的日志文件从flume传输到HDFS。我已按如下方式配置了flume代理:...tier1.channels.memory-channel.type=memory...tier1.sinks.hdfs-sink.channel=memory-channeltier1.sinks.hdfs-sink.type=hdfstier1.sinks.hdfs-sink.path=hdfs://***tier1.sinks.hdfs-sink.fileType=DataStreamtier1.sinks.hdfs-sink.rollSize=0source是一个spool