草庐IT

HDFS_NAMENODE

全部标签

hadoop - 无法从给定路径 : hdfs://. 读取架构 ..avsc

我尝试通过以下步骤创建一个配置单元表:使用sqoop将数据加载到hdfs(完成)sqoop还创建了一个avsc文件,我将其上传到hdfs在配置单元中,我想使用以下语句创建一个表:命令:CREATEEXTERNALTABLEkontoauszugROWFORMATSERDE'org.apache.hadoop.hive.serde2.avro.AvroSerDe'STOREDASINPUTFORMAT'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'OUTPUTFORMAT'org.apache.hadoop.hive

hadoop - Spark RDD 和 HDFS 数据 block 的区别

请帮助我理解HDFS的数据block和Spark中的RDD之间的区别。HDFS将数据集分发到集群中的多个节点作为具有相同大小的block,数据block将被复制多次并存储。RDD被创建为并行集合。Parallelized集合的元素是跨节点分布还是存储在内存中处理?和HDFS的数据block有关系吗? 最佳答案 IsthereanyrelationtoHDFS'datablocks?一般不会。他们解决不同的问题RDD是关于分配计算和处理计算失败的。HDFS用于分配存储和处理存储故障。分布是公分母,但仅此而已,故障处理策略明显不同(分别

hadoop - 如何在不将整个文件下载到本地磁盘的情况下下载 tar.gz 并将其打包到 hdfs?

我想从网上直接提取tar.gz文件到hdfs中。跳过下载到本地磁盘阶段,因为文件可能非常大。这一切都来自简单的cmd行脚本(bash、wget等) 最佳答案 好的,看起来这个衬垫有效:wget-O-http://...tar.gz|tarxfz---to-stodout|hadoopdfs-put-/somepath 关于hadoop-如何在不将整个文件下载到本地磁盘的情况下下载tar.gz并将其打包到hdfs?,我们在StackOverflow上找到一个类似的问题:

apache-spark - 从 Kafka 读取消息并写入 HDFS

我正在寻找从Kafka读取消息(大量消息,每天大约100B)的最佳方式,在读取消息后我需要对数据进行操作并将其写入HDFS。如果我需要以最佳性能执行此操作,那么从Kafka读取消息并将文件写入HDFS的最佳方式是什么?哪种编程语言最适合?我是否需要考虑为此使用Spark等解决方案? 最佳答案 您应该为此使用Spark流(参见here),它提供了Kafka分区和Spark分区之间的简单对应关系。或者您可以使用UseKafkaStreams(参见more)。KafkaStreams是用于构建应用程序和微服务的客户端库,其中输入和输出数据

Hadoop 单节点集群在 namenode 格式化期间设置错误

我已经在Windows10中安装了ApacheHadoop2.6.0。我一直在尝试解决这个问题,但未能从我的角度理解错误或任何错误。我已正确设置所有路径,Hadoop版本在命令提示符中正确显示版本。我已经在hadoop目录中创建了temp目录,例如c:\hadoop\temp。当我试图格式化Namenode时,我得到这个错误:C:\hadoop\bin>hdfsnamenode-format18/07/1820:44:55INFOnamenode.NameNode:STARTUP_MSG:/************************************************

hadoop - 每当我停止和启动 hadoop 服务时都必须反复格式化 HDFS

我在单节点集群上安装了hadoop。当我使用start=all.sh启动所有hadoop服务时,一切正常。但是,每当我停止所有服务并重新启动hadoop服务时,都会出现以下异常,我必须再次重新格式化文件系统。现在我正在开发中,每当我重新格式化时我都会复制文件。但是我不能在生产中出现这种行为。我检查了日志,这里是异常(exception)。我的etc/hosts文件也是一样的,我禁用了IPV62012-11-0318:49:45,542INFOorg.apache.hadoop.hdfs.server.namenode.NameNode:STARTUP_MSG:/************

hadoop - 如何使用flume创建任务自动定时从HDFS加载数据到HIVE?

我需要将数据从hadoop自动加载到hive,但我不想设置其他服务来执行此操作。我已经使用flume来收集我的日志了……那我该怎么办呢?flume是否可以执行命令(查询hive就像LOAD.....)? 最佳答案 抱歉,我来晚了一点,但实际上我已经整理了一个非常完整的示例,说明如何执行此操作并公开了所有细节。也许,它会帮助别人http://www.lopakalogic.com/articles/hadoop-articles/log-files-flume-hive/祝你好运! 关于h

macos - OSX - 无法将文件从本地文件系统复制到 hdfs

我正在尝试将文件从本地文件系统复制到HDFS,它抛出了一个错误,指出该文件只能复制到0个节点,而不是1个。ckharide-mac:binhadoop$./hadoopdfs-copyFromLocal/tmp/wcinput/user/hadoop/app/input13/10/0113:25:05WARNhdfs.DFSClient:DataStreamerException:org.apache.hadoop.ipc.RemoteException:java.io.IOException:File/user/hadoop/app/input/LICENSE.txtcouldonl

java - Hadoop HDFS MapReduce 输出到 MongoDb

我想编写Java程序,它从HDFS读取输入,使用MapReduce处理它并将输出写入MongoDb。场景如下:我有一个包含3个数据节点的Hadoop集群。Java程序从HDFS读取输入,并使用MapReduce对其进行处理。最后将结果写入MongoDb。其实从HDFS读取数据,用MapReduce处理很简单。但是我对将结果写入MongoDb感到困惑。是否支持任何JavaAPI将结果写入MongoDB?另外一个问题是,由于是HadoopCluster,所以我们不知道哪个datanode会运行Reducer任务并产生结果,是否可以将结果写到安装在特定服务器上的MongoDb中?如果我想把结

java - 用MiniDFSCluster对hadoop hdfs写的进行单元测试

我编写了一个写入hadoopHDFS的类。我使用的是1.2.1版的hadoopjar。我想测试这门课。所以基于博客如thisone我写了我的代码:privatevoidcreateSimulatedHdfs(){conf=newConfiguration();//100Kblocksizeconf.setLong(DFSConfigKeys.DFS_BLOCK_SIZE_KEY,1024*100);conf.setLong(DFSConfigKeys.DFS_BLOCK_SIZE_KEY,100);conf.setInt(DFSConfigKeys.DFS_BYTES_PER_CHEC