草庐IT

HDFS_NAMENODE

全部标签

hadoop - 安全 Hadoop - Datanode 无法连接到 namenode

我正在使用hadoop-2.6.0并在Windows平台上创建了具有kerberos安全性的HA启用集群。如果权限设置为false,一切正常。但是当我启用以下属性时,hdfs-site.xmldfs.permissionstrueDatanode无法连接到namenode。我收到以下异常异常2015-05-2110:44:42,461WARNorg.apache.hadoop.hdfs.server.datanode.DataNode:Problemconnectingtoserver:kumar/192.168.3.4:90002015-05-2110:44:46,079WARNor

hadoop - Jcascalog 查询 HDFS 上的 thrift 数据

我读了NathanMarz关于lambda架构的书。实际上,我正在对这个解决方案进行概念验证。我在构建Jcascalog查询时遇到困难。这是我们感兴趣的节俭模式的一部分:unionArticlePropertyValue{1:decimalquantity,2:stringname;}unionArticleID{1:intid;}structArticleProperty{1:requiredArticleIDid;2:requiredArticlePropertyValueproperty;}unionDataUnit{1:TicketPropertyticket_property

hadoop - 将 MS Access 数据 Sqooping 到 HDFS - Hadoop

我有一个用例,我需要将MicrosoftAccess数据导入/Sqoop到hdfs。是否有任何驱动程序可用于MS访问Sqoop数据。有没有人遇到过这样的情况。请留下您的评论和意见。 最佳答案 看起来不支持访问。Here是sqoop支持的数据库列表。最近的是MicrosoftSQL服务器here.主要要求是连接到数据库的jdbc驱动程序。 关于hadoop-将MSAccess数据Sqooping到HDFS-Hadoop,我们在StackOverflow上找到一个类似的问题:

hadoop - 插入 Hive 表时如何从 HDFS 中选择动态文件名

我有一个Hive表。现在我需要编写一个工作流程,每天工作都会在某个位置搜索文件-/data/data_YYYY-mm-dd.csvlike/data/data_2015-07-07.csv/data/data_2015-07-08.csv...因此每天工作流都会自动选择文件名并将数据加载到Hive表(MyTable)中。我正在编写如下加载脚本-在路径中加载数据“/data/${filepath}”覆盖到表MyTable。现在,在运行与普通配置单元作业相同的同时,我可以将文件路径设置为data_2015-07-07.csv,但如何在Oozie协调器中执行此操作,以便它自动选择名称为日期的

java - NameNode没有启动start-all.sh

我正尝试在我的机器上将Hadoop作为单节点集群运行。我完成了安装步骤,所以Hadoop已经在我的系统上了。但是,当我运行start-all.sh并随后检查jps是否正在运行NameNode时,这就是我得到的结果:20053Jps19944NodeManager我已经尝试先运行start-dfs.sh,然后运行​​start-yarn.sh,但这没有用。我还尝试用格式化NameNodehadoopnamenode-format但我做不到,我得到了错误:15/07/1516:34:19WARNnamenode.NameNode:Encounteredexceptionduringform

java - 如何从 Mapreduce 作业查询存储在 hdfs 中的嵌入式数据库?

我正在尝试从HadoopMapReduce映射器查询GeoLite数据库以解析IP地址的国家/地区。我尝试了两种方法:1.使用File仅适用于本地文件系统,我收到一个文件未找到异常Filedatabase=newFile("hdfs://localhost:9000/input/GeoLite2-City.mmdb");//2.使用流,但在运行时出现此错误Error:JavaHeapSpacePathpt=newPath("hdfs://localhost:9000/input/GeoLite2-City.mmdb");FileSystemfs=FileSystem.get(newCo

hadoop - 在没有格式的情况下重启Hadoop集群中的NameNode

由于某些原因不得不关闭我在集群中的主节点,就好像我们再次启动集群一样,名称节点不会运行,除非我们再次格式化它,他们是否有任何解决方案来启动名称节点而不格式化...尝试了一切..Start-all.sh或单独启动namenode/datanodes但Namenode不会启动,直到我再次格式化它,如何在不格式化的情况下启动Name-node。提前致谢 最佳答案 请发布日志信息。其实重启hadoop时不需要格式化。因为HDFS的元信息会存储在磁盘中,如果格式化namenode,元信息就会丢失。你可以试试停止集群时namenode进程是否还

hadoop - 无法在 hadoop 2.6 中格式化 Namenode?

我已经在ubuntu14.04上安装了hadoop2.6。我刚刚关注了thisblog.当我尝试格式化名称节点时,我遇到了以下错误:hduser@data1:~$hadoopnamenode-formatDEPRECATED:Useofthisscripttoexecutehdfscommandisdeprecated.Insteadusethehdfscommandforit./usr/local/hadoop/bin/hdfs:line276:/home/hduser/usr/lib/jvm/java-7-openjdk-amd64/bin/java:Nosuchfileordir

hadoop - 为 julia 安装 HDFS 接口(interface)包

我是Julia语言的新手,觉得它很有趣。正如它所说的那样,它已经准备好hadoop我想使用我的本地hadoop集群来测试它。我在我的debian32位机器上安装了最新版本的julia,并编写了一些简单的脚本,类似于Helloworld之类的东西。现在,我已经从下面的站点中提取了HDFS和YARN接口(interface)包https://github.com/JuliaParallel/HDFS.jlhttps://github.com/JuliaParallel/Elly.jl不知道如何在我的机器上安装这些并使用这些包来查询HDFS集群并运行一些map-reduce任务。任何指针在这

azure - Pig 无法在 HDFS (riskfactor.pig) 中创建(或查找)pigjobs 文件

我在Azure上使用HortonWorks沙箱,并且正在研究Hadoop入门教程“实验室3-pig风险因素分析”。http://hortonworks.com/hadoop-tutorial/hello-world-an-introduction-to-hadoop-hcatalog-hive-and-pig/#section_5在执行完所有步骤之后,运行这个pig脚本:a=LOAD'geolocation'usingorg.apache.hive.hcatalog.pig.HCatLoader();b=filterabyevent!='normal';c=foreachbgenera