草庐IT

Cloudera-CDH

全部标签

hadoop - Spark 独立模式 : Worker not starting properly in cloudera

我是spark的新手,在使用cloudera管理器中提供的包裹安装spark之后。我已经配置了以下来自clouderaenterprise的链接中所示的文件:http://www.cloudera.com/content/cloudera-content/cloudera-docs/CM4Ent/4.8.1/Cloudera-Manager-Installation-Guide/cmig_spark_installation_standalone.html完成此设置后,我通过运行/opt/cloudera/parcels/SPARK/lib/spark/sbin/start-all.s

hadoop - Lily Hbase Indexers 无故退出

我正在运行Cloudera/Solr集群,并尝试使用hbase-solr(Lily)索引器将Hbase的NRT索引编入Solr。批处理模式索引工作正常。但是,在我开始以恒定流加载数据后,Lily索引器开始一个接一个地死掉。他们不会打印出向我跳出的特定错误消息,但都以相同的方式结束:2014-09-1016:04:56,770INFOorg.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper:Processidentifier=ip-172-31-1-204.ap-southeast-2.compute.internal,44013,14

Hadoop MapReduce (Yarn) 使用不同功率/规范的主机

我目前在集群中有高功率(cpu/ram)主机,我们正在考虑添加一些存储良好但功率低的主机。我担心的是它会降低工作绩效。来自新的(功能较弱的)主机的Map/Reducer将运行得更慢,而功能更强大的将只需要等待结果。有没有办法在Yarn中配置它?也许为主机设置优先级或根据每台机器上的核心数分配映射器/缩减器。谢谢,霍拉修 最佳答案 在YARN中,您可以为每个集群worker提供不同的硬件资源配置。然后,YARN将决定可以为每个工作人员分配多少任务(容器)以平衡工作量。换句话说,您可以在yarn-site.xml中为每个worker分别

hadoop - Impala Cloudera Manager 代理从该角色的 Web 服务器获得意外响应

我已经用clouderamanager完成了一个hadoop集群安装。安装后impala状态变坏了。主节点出现以下错误:WebServerStatus这一个用于带有imapala守护进程的节点:ImpalaDaemonReadyCheck,WebServerStatus查看日志我发现了一些错误:ThehealthtestresultforIMPALAD_WEB_METRIC_COLLECTIONhasbecomebad:TheClouderaManagerAgentgotanunexpectedresponsefromthisrole'swebserver.查看cloudera-scm

hadoop - 使用 Apache Sentry - Cloudera

我已经在我的机器上使用ClouderaManager配置了ApacheSentry,任何人都可以解释启动命令以使用ApacheSentry-Cloudera吗? 最佳答案 您想通过Sentry为哪些服务配置授权?..您使用的是哪个版本的CM/CDH?您可以使用Hue的“安全”菜单或使用命令行界面(例如beeline(为Hive/Impala创建策略)或SOLR的solrctlsentry命令....取决于您要处理的服务。最新版本的Sentry和CDH-Kafka也可以管理KafkaACL。Sentry使用来自底层Linuxbox的组

java - Cloudera:在 HDFS 异常中上传文件

我使用带有VMcloudera-quickstart-vm-5.4.2-0-virtualbox的MACOSXYosemite。当我键入“hdfsdfs-puttestfile.txt”将文本文件放入HDFS时,我得到了一个DataStreamer异常。我注意到主要问题是我拥有的节点数为空。我在下面复制了完整的错误消息,我想知道我应该如何解决这个问题。>WARNhdfs.DFSClient:DataStreamer>Exceptionorg.apache.hadoop.ipc.RemoteException(java.io.IOException):>File/user/clouder

java - Cloudera Quickstart VM illegalArguementException : Wrong FS: hdfs: expected: file:

我有一个简单的java代码可以将一个文本文件从本地复制到hdfs。我正在使用cloudera的quickstart虚拟机。Configurationconf=newConfiguration();conf.addResource(newPath("/etc/hadoop/conf/core-site.xml"));conf.addResource(newPath("/etc/hadoop/conf/hdfs-site.xml"));FileSystemfs=FileSystem.get(conf);fs.copyFromLocalFile(newPath("/home/cloudera

java - 由于 cloudera quickstart vm 中的 yarn 容器错误,Hipi 平均像素数程序失败

我是HIPI/Hadoop的新手,所以我选择了clouderaquickstartvm(5.4.2)。我正在关注gettingstarted教程来做到这一点。在运行时我发现我在hib文件中有如下所示的文件:[cloudera@quickstarttools]$./hibInfo.shexamples/sampleNew.hib--show-metaInputHIB:examples/sampleNew.hibDisplaymetadata:trueDisplayEXIFdata:falseIMAGEINDEX:01244x829format:1meta:{source=/home/cl

hadoop - Cloudera 虚拟机 - 增加磁盘大小

我已经在Windows上通过VMPlayer使用Cloudera发行版CDH5.4.0设置了一个虚拟机。当我开始使用虚拟机时,它的大小约为7GB。现在它的大小已增加到大约73GB。我这里说的大小是windows上占用的磁盘大小。它会创建很多vmdk文件,如下所示:-rw-r--r--1user_nameAdminist1554776064Dec1510:37cloudera-quickstart-vm-5.4.0-0-vmware-s001.vmdk-rw-r--r--1user_nameAdminist2003632128Dec1510:37cloudera-quickstart-v

hadoop - Cloudera Manager 健康问题 : NameNode Connectivity, Web 服务器状态

以下是CM上报告的健康问题的快照。列表中的数据节点不断变化。数据节点日志中的一些错误:3:59:31.859PMERRORorg.apache.hadoop.hdfs.server.datanode.DataNodedatanode05.hadoop.com:50010:DataXceivererrorprocessingWRITE_BLOCKoperationsrc:/10.248.200.113:45252dest:/10.248.200.105:50010java.io.IOException:PrematureEOFfrominputStreamatorg.apache.had