草庐IT

hdfs-audit

全部标签

hadoop - 每当我停止和启动 hadoop 服务时都必须反复格式化 HDFS

我在单节点集群上安装了hadoop。当我使用start=all.sh启动所有hadoop服务时,一切正常。但是,每当我停止所有服务并重新启动hadoop服务时,都会出现以下异常,我必须再次重新格式化文件系统。现在我正在开发中,每当我重新格式化时我都会复制文件。但是我不能在生产中出现这种行为。我检查了日志,这里是异常(exception)。我的etc/hosts文件也是一样的,我禁用了IPV62012-11-0318:49:45,542INFOorg.apache.hadoop.hdfs.server.namenode.NameNode:STARTUP_MSG:/************

hadoop - 如何使用flume创建任务自动定时从HDFS加载数据到HIVE?

我需要将数据从hadoop自动加载到hive,但我不想设置其他服务来执行此操作。我已经使用flume来收集我的日志了……那我该怎么办呢?flume是否可以执行命令(查询hive就像LOAD.....)? 最佳答案 抱歉,我来晚了一点,但实际上我已经整理了一个非常完整的示例,说明如何执行此操作并公开了所有细节。也许,它会帮助别人http://www.lopakalogic.com/articles/hadoop-articles/log-files-flume-hive/祝你好运! 关于h

macos - OSX - 无法将文件从本地文件系统复制到 hdfs

我正在尝试将文件从本地文件系统复制到HDFS,它抛出了一个错误,指出该文件只能复制到0个节点,而不是1个。ckharide-mac:binhadoop$./hadoopdfs-copyFromLocal/tmp/wcinput/user/hadoop/app/input13/10/0113:25:05WARNhdfs.DFSClient:DataStreamerException:org.apache.hadoop.ipc.RemoteException:java.io.IOException:File/user/hadoop/app/input/LICENSE.txtcouldonl

java - Hadoop HDFS MapReduce 输出到 MongoDb

我想编写Java程序,它从HDFS读取输入,使用MapReduce处理它并将输出写入MongoDb。场景如下:我有一个包含3个数据节点的Hadoop集群。Java程序从HDFS读取输入,并使用MapReduce对其进行处理。最后将结果写入MongoDb。其实从HDFS读取数据,用MapReduce处理很简单。但是我对将结果写入MongoDb感到困惑。是否支持任何JavaAPI将结果写入MongoDB?另外一个问题是,由于是HadoopCluster,所以我们不知道哪个datanode会运行Reducer任务并产生结果,是否可以将结果写到安装在特定服务器上的MongoDb中?如果我想把结

java - 用MiniDFSCluster对hadoop hdfs写的进行单元测试

我编写了一个写入hadoopHDFS的类。我使用的是1.2.1版的hadoopjar。我想测试这门课。所以基于博客如thisone我写了我的代码:privatevoidcreateSimulatedHdfs(){conf=newConfiguration();//100Kblocksizeconf.setLong(DFSConfigKeys.DFS_BLOCK_SIZE_KEY,1024*100);conf.setLong(DFSConfigKeys.DFS_BLOCK_SIZE_KEY,100);conf.setInt(DFSConfigKeys.DFS_BYTES_PER_CHEC

hadoop - 一个小文件是如何存储在HDFS中的

在hadoop权威指南中:以128MB的block大小存储的1MB文件使用1MB的磁盘空间,而不是128MB。这是什么意思?它是在一个128MB的block中使用1MB的大小,还是使用了1MB并且剩余的127MB被其他文件免费占用? 最佳答案 这通常是对HDFS的误解——block大小更多的是关于单个文件如何拆分/分区,而不是关于文件系统的某些保留部分。在这些方案的背后,每个block都作为普通文件(以及相关的校验和)存储在DataNodes底层文件系统中。如果您查看磁盘上的数据节点文件夹,您应该能够找到该文件(如果您知道文件的bl

hadoop - hdfs snapshot可以用来恢复hive吗

知道hive使用metastore和hdfs,是否可以将从正在运行的hadoop-hive集群获取的hdfs快照恢复到新的hadoop-hive集群?我认为必须执行的一个步骤是在hive中再次创建表,但是这些表会自动连接到快照文件吗?有关此主题的一个链接位于ApacheMailArchives.我希望对此是否有更新或更好的答案。 最佳答案 Hive使用2(元数据+hdfs中的仓库数据)试一试:(没查过,请注意)1)使用dstcp将当前Hadoop-hiveCluster中的hive仓库数据复制到新的Hadoop-hiveCluste

java - 使用 Java API 读取 HDFS 的默认 block 大小

我想使用java程序从hdfs-site.xml中读取这个默认block大小值?任何人都可以帮忙吗?dfs.blocksize134217728 最佳答案 我发现有更好的选择,而不是从HDFS-SITEXML读取默认block大小。Configurationconf=newConfiguration();conf.set("fs.defaultFS","hdfs://0.0.0.0:8020");FileSystemfs=FileSystem.get(conf);Configurationcconf=fs.getConf();Str

hadoop - 在 Hadoop (HDFS) 中获取文件的最后 5 行

我的Hadoop集群(在HDFS上)中有几个文件。我想查看每个文件的最后5行。是否有一个简单的命令来执行此操作? 最佳答案 如果你想特别查看HDFS文件的最后5行(而不是更多或更少),你可以使用以下命令,但它不是很有效:hadoopfs-cat/your/file/with/path|尾部-5这是hadoop中一个更高效的命令,但它返回数据的最后一千字节,而不是用户指定的行数:hadoopfs-tail/your/file/with/path这是对hadooptail命令的引用:http://hadoop.apache.org/do

hadoop - 如何通过水槽将 Twitter 数据通过代理提供给 hdfs?

我已经安装了flume并且正在尝试将Twitter数据输入到hdfs文件夹中。我的flume.conf文件如下所示:TwitterAgent.sources=TwitterTwitterAgent.channels=MemChannelTwitterAgent.sinks=HDFSTwitterAgent.sources.Twitter.type=com.cloudera.flume.source.TwitterSourceTwitterAgent.sources.Twitter.channels=MemChannelTwitterAgent.sources.Twitter.consu