草庐IT

hdfs_clusters

全部标签

hadoop - HBase WAL文件和HDFS数据暂存

我是如何理解WAL的:WriteAheadLog提供一致的放置/删除操作。在更改区域之前,所有操作都会写入其中。如果区域服务器出现问题,我们可以修复来自WAL的信息。我不明白的是WAL是如何在HDFS之上实现的?来自HDFS文档:AclientrequesttocreateafiledoesnotreachtheNameNodeimmediately.Infact,initiallytheHDFSclientcachesthefiledataintoatemporarylocalfile.Applicationwritesaretransparentlyredirectedtothis

hadoop - 执行 hdfs namenode -format 时出错

我是hadoop、hdfs的新手..我已经完成了接下来的步骤:我已经在三个名称节点中启动了zookeeper:*vagrant@172:~$zkServer.shstart我可以看到状态:*vagrant@172:~$zkServer.shstatus结果状态:JMXenabledbydefaultUsingconfig:/opt/zookeeper-3.4.6/bin/../conf/zoo.cfgMode:follower用jps命令只出现jps有时也会出现quaroom:*vagrant@172:~$jps2237Jps我也运行下一个命令。*vagrant@172:~$hdfsz

python - 如何使用 Python pickle 将文件转储到 Hadoop HDFS 目录?

我在包含我的Python(2.7)类的目录中的VM上。我正在尝试将我的类的一个实例pickle到我的HDFS中的一个目录。我正在尝试按照以下方式做一些事情:importpicklemy_obj=MyClass()#theclassinstancethatIwanttopicklewithopen('hdfs://domain.example.com/path/to/directory/')ashdfs_loc:pickle.dump(my_obj,hdfs_loc)根据我所做的研究,我认为类似于snakebite可能会有所帮助...但是有人有更具体的建议吗?

java - 使用 java 代码读取存储在 hdfs 中的 .properties 文件

我需要读取hdfs中可用的.properties文件。我正在使用以下代码,但会引发运行时错误。FileSystemfs=FileSystem.get(config);Propertiesconf=wc.createConfiguration();Propertiesprop=newProperties();StringappPath="hdfs://clusterdb05.com:8020/user/cmahajan/"+version+"/apps/apps/";conf.setProperty(OozieClient.APP_PATH,appPath);FileInputStrea

hadoop - block 池如何在 HDFS 联合中运行

所以我正在阅读Hadoop:权威指南。这里面的一句话page是什么让我感到困惑。所以我创建了一个描述每个句子的图像。这句话说,在联合下,每个名称节点管理一个命名空间卷(黑色方block表示命名空间卷),它由命名空间的元数据和一个block池组成>(由深灰色矩形表示)包含命名空间中文件的所有block。命名空间卷彼此独立(在图像中它们对于每个名称节点都是独立的,不共享),这意味着名称节点不会相互通信,而且一个名称节点的故障不会影响其他名称节点管理的namespace的可用性。block池存储未分区(因此在图像中的所有节点之间共享),但是,数据节点向集群中的每个名称节点注册(再次与所有名称

使用 HDFS 在 RAM 中缓存

我需要用一个小集群(约10台服务器)处理一些大文件(约2TB),以便生成相对较小的报告(约GB)。我只关心最终报告,而不关心中间结果,而且机器有大量RAM,所以使用它来尽可能减少磁盘访问(从而提高速度)会很棒,理想情况下仅在使用磁盘时将数据block存储在volatile内存中。查看配置文件和previousquestionHadoop似乎没有提供此功能。星火官网talksaboutamemory_and_disk选项,但我更愿意要求公司部署基于新语言的新软件。我找到的唯一“解决方案”是在hdfs-default.xml中将dfs.datanode.data.dir设置为/dev/sh

python - 从 Hadoop mapreduce 作业打开 HDFS 上的文件

通常,我可以用这样的东西打开一个新文件:aDict={}withopen('WordLists/positive_words.txt','r')asf:aDict['positive']={line.strip()forlineinf}withopen('WordLists/negative_words.txt','r')asf:aDict['negative']={line.strip()forlineinf}这将打开WordLists文件夹中的两个相关文本文件,并将每一行作为正面或负面附加到词典中。但是,当我想在Hadoop中运行mapreduce作业时,我认为这行不通。我正在这样

hadoop - 删除托管(非外部)表时,不会删除 hdfs 上的配置单元文件

当我从Hive交互式命令行删除托管表时,在/user/hive/warehouse/.db中的hdfs上创建的基础文件仍然存在。当我重新创建具有相同名称的表并尝试执行此操作时,这会导致问题INSERTINTOTABLE因为它仍然包含我在最初运行时加载到这些分区(在我的例子中是dt和hr分区)的数据。只有当我使用INSERTOVERWRITETABLE它最终会正确加载数据吗,但我的ETL需要使用INSERTINTOTABLE.有什么想法吗?我正准备创建同一个表但名称不同,或者只是进入并删除hdfs上的内容,但我担心这是否会破坏Metastore或其他东西。最后,我确信它是一个托管表而不是

hadoop - HDFS短路读

根据documentation,短路读取速度更快,因为它们不通过数据节点。如果是这样的话,那么为什么默认情况下不启用此功能?我们在哪些场景下需要短路读取? 最佳答案 看看这篇文章:http://blog.cloudera.com/blog/2013/08/how-improved-short-circuit-local-reads-bring-better-performance-and-security-to-hadoop/文章摘要:原始实现的一个主要缺点是它搞砸了安全隐患。它必须为客户提供对数据文件的直接读取权限。我猜这对启用了

hadoop - 配置单元 : How to execute a query from a file and dump the output in hdfs

我可以从sql文件执行查询并将输出存储在本地文件中使用hive-f/home/Prashasti/test.sql>/home/Prashasti/output.csv此外,我可以使用以下方法将配置单元查询的输出存储在hdfs中:insertoverwritedirectory'user/output'select*fromfolders;有什么方法可以从sql文件运行查询并将输出也存储在hdfs中吗? 最佳答案 只需要修改sql文件,将insertoverwritedirectory'user/output'添加到查询的前面。