草庐IT

ruby - 我正在尝试将我的脚本从 Cloudera hbase 4(CDH4) 版本升级到 (CDH5)

defgetRegions(config,servername)connection=HConnectionManager::getConnection(config)parts=servername.split(',')putspartsrs=connection.getHRegionConnection(parts[0],parts[1].to_i)returnrs.getOnlineRegions()end我正在尝试使此代码与CDH5兼容。我查看了CDH5库,但无法找到确切的解决方案。我正在使用connection=ConnectionFactory::createConnect

hadoop - CDH HDFS节点退役永无止境

我们有一个12台服务器的hadoop集群(CDH),最近,我们想停用其中的三台,但是这个进程已经在那里运行了2天多了。但它永远不会结束,特别是在过去的24小时内,我看到三个数据节点上只有94G数据可用,但在过去的24小时内大小似乎没有变化。即使通过复制不足的block数也已经为零。hdfs中的所有数据的复制因子都是3。以下是hadoopfsck命令的结果:总大小:5789534135468B(打开文件总大小:94222879072B)目录总数:42458文件总数:5494378符号链接(symboliclink)总数:0(当前正在写入的文件:133)block总数(已验证):55065

hadoop - 安装hadoop-cdh后/etc/init.d/下缺少初始化脚本

在Cloudera的文档中——“在集群上部署HDFS(使用命令行)”据说,要启动名称节点服务,请键入以下命令:forxin`cd/etc/init.d;lshadoop-hdfs-*`;dosudoservice$xstart;done问题是,/etc/init.d/目录下没有匹配hadoop-hdfs-*名称模式的项。我认为应该有一个hadoop-hdfs-namenode,不是吗?有人能告诉我为什么hadoop-hdfs-namenode不见了吗?我错过了任何部署步骤吗?非常感谢! 最佳答案 您在安装时缺少可选服务包。尝试安装h

java - 如何在 CDH 上查看 Avro 版本?

CDH上是否有检查Avro库版本的机制?我知道Avro库依赖于项目中的依赖项,但我看到在我们的Hadoop集群的节点上有一些地方默认驻留库。有没有办法检查默认包含在CDH发行版中的avro版本?即使我们将Avro与hive一起使用,Avro版本也是CDH自己使用的,无需单独配置(在CDH中)。我想知道如何检查Avro版本。 最佳答案 您可以运行avro-tools,它会告诉您所使用的Avro版本。$avro-toolsVersion1.7.6-cdh5.14.0-SNAPSHOTofApacheAvro....

hadoop - 从 Oozie (CDH) 运行 Spark2

我正在尝试从Oozie运行一个spark作业(使用spark2-submit),所以这个作业可以按计划运行。当运行我们从命令行在我们的服务帐户(不是Yarn)下运行shell脚本时,作业运行得很好。当我们将它作为Oozie工作流运行时,会发生以下情况:17/11/1612:03:55ERRORspark.SparkContext:ErrorinitializingSparkContext.org.apache.hadoop.security.AccessControlException:Permissiondenied:user=yarn,access=WRITE,inode="/us

hadoop - 无法在 ubuntu 机器上卸载通过 CDH5 安装的 sqoop

我从ClouderaManager中卸载了sqoop,但我仍然可以通过终端看到sqoop版本:chaithu@localhost:~$sqoopversionWarning:/opt/cloudera/parcels/CDH-5.13.1-1.cdh5.13.1.p0.2/bin/../lib/sqoop/../accumulodoesnotexist!Accumuloimportswillfail.Pleaseset$ACCUMULO_HOMEtotherootofyourAccumuloinstallation.17/12/2418:49:28INFOsqoop.Sqoop:Run

java - 在 CDH4 示例上运行 map reduce 作业

我是CDH4和Hadoop的新手。我正在尝试运行wordcountexample并收到以下错误。你能纠正我并让我知道问题是什么吗:WordCount.java:25:interfaceexpectedherepublicstaticclassMapextendsMapReduceBaseimplementsMapper{^WordCount.java:39:interfaceexpectedherepublicstaticclassReduceextendsMapReduceBaseimplementsReducer{^WordCount.java:56:setMapperClass(

CDH4 中的 Hadoop 和 Hive 主页

我正在尝试在CDH4环境中配置RHive。在R中读取包“RHive”时,返回了以下错误。我猜这是由于错误的家庭。如果是这样,什么是正确的?或者,如果这不是原因,那有什么问题?如有任何帮助,我们将不胜感激。谢谢。>Sys.setenv(HIVE_HOME="/etc/hive")>Sys.setenv(HADOOP_HOME="/etc/hadoop")>library(RHive)Loadingrequiredpackage:rJavaLoadingrequiredpackage:RserveThisisRHive0.0-7.Foroverviewtype'?RHive'.HIVE_H

hadoop - CDH4.4 : Restarting HDFS and MapReduce from shell

我正在尝试使用bash脚本在ClouderaHadoop4.4集群上自动停止、格式化和启动HDFS和MapReduce服务。使用“pkill-Uhdfs&&pkill-Umapred”可以很容易地终止HDFS和MapReduce进程,但是如何在不使用ClouderaManagerGUI的情况下再次启动这些进程? 最佳答案 好吧,显然CM有一个非常棒的AP​​I在这里查看http://cloudera.github.io/cm_api/ 关于hadoop-CDH4.4:Restarting

hadoop - hadoop、mahout、CDH版本匹配

我需要使用最新的mahout版本0.9(因为我需要使用所有分布式推荐算法)。为此,我应该使用哪个版本的hadoop?在某些地方,已经提到hadoop2.20不能很好地与mahout0.9一起工作。因此,我可以使用mahout0.9的最低hadoop版本是多少。如果我使用的是cloudera(CDH),我应该使用什么版本来处理mahout0.9。 最佳答案 CDH4.x包含Mahout0.7CDH5.0.x包含Mahout0.8CDH5.1.x发布后,可能会包含Mahout0.9,但不要引用我的话所有这些Mahout版本的默认构建都是