草庐IT

hadoop-examples

全部标签

hadoop - mapreduce 中的 NoSuchElementException

我是mapreduce的新手,遇到NoSuchElementException,请帮忙。在文本下方输入文件容器:thisisahadoopprogramiamwritingitforfirsttime映射器类:publicclassMappersextendsMapReduceBaseimplementsMapper{privateTextword=newText();privateIntWritablesingleWordCount=newIntWritable();privateIntWritableone=newIntWritable(1);@Overridepublicvoid

hadoop - hive 中的 wordcount 问题

使用hive进行字数统计时出现问题。我的配置单元命令是这样的selectword,count(1)ascountfrom(selectexplode(split(word,''))aswordfromnote)wgroupbywordorderbycountdesclimit5;结果:the20583of103889479and7611in52269479是行数。我该如何摆脱它? 最佳答案 将split函数改成-split(word,'\\s+')(而不是单个空格,一个严肃的白色字符[\t\n\x0B\f\r])

Hadoop 容器运行超出物理内存限制

在运行Hadoop任务时,出现以下错误Container[pid=12850,containerID=container_1489504424139_0638_01_201123]isrunningbeyondphysicalmemorylimits.Currentusage:4.0GBof4GBphysicalmemoryused;8.8GBof8.4GBvirtualmemoryused.Killingcontainer.我在stackoverflow中搜索,它给了我几个页面(Link1,Link2)。但这没有帮助。我仍然得到错误。我当前的mapred-site.xml文件如下:m

python - 如何通过 pyspark/hadoop/etc 提高程序的速度?

我有一个大型矩阵目录,我正在对此类矩阵应用一些昂贵的操作。管道看起来像这样:Directory->extractmatrices->applyoperations->saveina.csvfile请注意,我将之前的“管道”包装到一个函数中。到目前为止,使用python的多处理库,我能够在1周内应用以前的管道。但是,我很好奇是否有可能以sparkmap-reduce的方式“并行化”之前的函数。因此,我的任务可以用pysparksmapreduce来增强吗?我怎样才能提高速度?(我只有两台笔记本电脑),你们推荐我在不修改功能的情况下提高管道速度的其他方法是什么?

hadoop - Hadoop 中的副本在 NameNode 上所需的内存

在thisCloudera博文,在Replication部分,已经解释了复制不会消耗NameNode上的内存。但是,我对此持怀疑态度,因为我知道NameNode在主内存中存储有关每个文件及其副本的信息。那么,无论有无复制,内存需求如何相同? 最佳答案 那么内存消耗取决于你的意思,因为有物理内存和虚拟内存(我这里只说Namenode)就物理内存而言,Cloudera博客是正确的,因为Datanode有责任与Namenode通信(例如,在重启后连接时)它维护的block。Namenode仅将文件系统结构存储到磁盘(fsimage和编辑文

hadoop - 如何在 HBase 集群设置中添加辅助 NameNode?

我有一个包含3个节点的Hbase集群设置:一个NameNode和2个DataNode。NameNode是一个4GB内存和20GB硬盘的服务器,而每个DataNode有8GB内存和100GB硬盘。我正在使用ApacheHadoop版本:2.7.2和ApacheHbase版本:1.2.4我看到有人提到了辅助NameNode。我的问题是,在我的设置中没有辅助NameNode有什么影响?是否可以使用其中一个DataNode作为辅助NameNode?如果可能,我该怎么做?(我只在/etc/hadoop/masters文件中插入了NameNode。) 最佳答案

hadoop - Spark 数据集写入 HDFS 期间创建的空分区

尝试使用write方法将数据集/数据帧作为Parquet保存到hdfs。分区在HDFS中创建,但数据为空。我正在使用Spark版本-2.xdataset.write.mode("append").partitionBy("empNo").format("parquet").save("hdfspath")或dataset.write.mode(SaveMode.Overwrite).save("hdfspath")请推荐 最佳答案 我刚刚检查了它的数据框。根据您的查询将其分区在单个列上。在具有适当值的输出文件夹中创建了两个分区文件夹

macos - Hadoop2.7.3 : Cannot see DataNode/ResourceManager process after starting hdfs and yarn

我使用的是mac和java版本:$java-versionjavaversion"1.8.0_111"Java(TM)SERuntimeEnvironment(build1.8.0_111-b14)JavaHotSpot(TM)64-BitServerVM(build25.111-b14,mixedmode)点击此链接:https://dtflaneur.wordpress.com/2015/10/02/installing-hadoop-on-mac-osx-el-capitan/我先brewinstallhadoop,根据需要配置ssh连接和xml文件,start-dfs.shst

linux - 在 CentOS 中从 Root 提供对 Admin 的 Hadoop 完全访问权限

我已经在下面的目录中安装了Hadoop-2.8.0root。/root/hadoop-2.8.0我有一个名为“KrishnaMahi”的用户。他是管理员。他在下面的目录中。/home/krishnamahi我想向管理员提供Hadoop的完全访问权限。如何在不提供root密码的情况下提供对管理员的完全访问权限?我正在使用CentOS7。请帮我解决。 最佳答案 在root用户下执行以下命令chown-Rkrishnamahi:krishnamahi/root/hadoop-2.8.0然后执行下一条命令成为无密码的root用户visudo

hadoop - 如何避免 Hadoop 中的 Map/Reduce 任务失败

我有一个迭代次数太多的循环和一个在Reducer函数中计算量很大的函数。while(context.getCounter(SOLUTION_FLAG.SOLUTION_FOUND).getValue()MAX_ITR是迭代次数-用户输入问题是当我在Hadoop集群上运行它时出现超时错误并且Reducer任务被终止17/05/0621:09:43INFOmapreduce.Job:TaskId:attempt_1494129392154_0001_r_000000_0,Status:FAILEDAttemptID:attempt_1494129392154_0001_r_000000_0