我们有一个基于hadoop-core-0.20.2-cdh3u1.jar的java客户端。针对运行apache分布式0.20.xx的服务器(集群)工作是否安全?还是cloudera破坏了一些apacheAPI?谢谢 最佳答案 可能是个坏主意。尝试与使用hadoop-core版本0.20.203.0的客户端一起使用cdh3u1的服务器并得到:org.apache.hadoop.ipc.RPC$VersionMismatch:Protocolorg.apache.hadoop.hdfs.protocol.ClientProtocolve
我正在尝试构建一个包含在Eclipse中构建map/reduce作业所需的所有jar文件的Hadoop库。在Ubuntu上安装Hadoop时,我需要哪些.jar文件以及从单节点安装CDH4的哪些文件夹? 最佳答案 假设您已经从https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs下载了CDH4tarball发行版解压缩tarball在解压后的目录中找到build.properties文件:hadoop-2.0.0-cdh4.0.0/src/hadoop-
我有两个hadoop集群,我的目标是使用hadoop-cp将所有hdfs文件从cluster1复制到cluster2集群1:Hadoop0.20.2-cdh3u4集群2:Hadoop2.0.0-cdh4.1.1现在,即使只是在cluster2上远程对cluster1运行dfs-ls命令,如下所示:hadoopfs-lshdfs://cluster1-namenode:8020/hbase我遇到异常:ls:因本地异常而失败:java.io.IOException:响应为空。;主机详细信息:本地主机是:“cluster2-namenode/10.21.xxx.xxx”;目标主机是:“clu
我已经在亚马逊云(1台服务器)的ubuntu12LTS服务器上成功安装了CDH4。我使用ClouderaManager免费版安装软件并且没有错误)。我有一个程序使用javaAPI将文件从我的家用计算机加载到云中的HDFS。我想知道为什么这个程序失败以及如何修复它。Configurationconf=newConfiguration();conf.set("fs.defaultFS","hdfs://node01:8020");FileSystemfs=FileSystem.get(conf);PathtargetPath=newPath("/users//myfile.txt");Pa
我尝试在ubuntu上安装最新的cloudera管理器,当我在psuedo分布式模式下安装cluser时,出现以下错误,有人可以建议我该怎么做我确实已经尝试过以下a)禁用iptablesb)将我的etc主机更改为具有以下条目127.0.0.1本地主机127.0.0.1localhost.localdomainlocalhost安装失败。无法从代理接收心跳。Ensurethatthehost'shostnameisconfiguredproperly.Ensurethatport7182isaccessibleontheClouderaManagerserver(checkfirewal
我的集群上安装了clouderahadoop版本4。它与googleprotobufferjar2.4版打包在一起。在我的应用程序代码中,我使用了使用protobuffer2.5版编译的protobuffer类。这会导致运行时无法解决的编译问题。有没有一种方法可以使用外部jar运行mapreduce作业,或者我会卡住直到cloudera升级他们的服务?谢谢。 最佳答案 是的,您可以使用外部jar运行MR作业。请务必在提交作业时向HADOOP_CLASSPATH和-libjars添加任何依赖项,如以下示例所示:您可以使用以下命令添加当
有没有人试过让RHive与cdh4一起工作?它与cdh4兼容吗?我试过在他们的谷歌群组上问这个问题,但还没有答案!我已经在cdh4上安装了R、RHadoop和所有相关的软件包,但我仍然停留在RHive。对所有环境变量使用cdh4,rhive.connect()给我以下错误-WARNconf.Configuration:fs.default.nameisdeprecated.Instead,usefs.defaultFSErrorin.jfindClass(as.character(class)):classnotfound有什么想法/建议吗?谢谢,外婆 最佳
无论如何,我是否可以安装唯一没有cloudera管理器和cdh的impala。我将使用hadoop的apache版本? 最佳答案 是的,这是绝对可能的。将存储库添加到您的sources.list文件中,然后更新存储库。deb[arch=amd64]http://archive.cloudera.com/impala/ubuntu/precise/amd64/impalaprecise-impala1contribdeb-srchttp://archive.cloudera.com/impala/ubuntu/precise/amd6
我正在尝试从CDH3升级到CDH4,但从编译到运行时遇到版本冲突。我收到此错误:线程“主”java.lang.IncompatibleClassChangeError中的异常:找到接口(interface)org.apache.hadoop.mapreduce.Counter,但类是预期的从谷歌搜索看来,我的代码是针对Hadoop1.x编译的,并在Hadoop2.0上运行。我正在同一个Hadoop客户端上编译和运行该应用程序,因此它应该都是Hadoop2.0。这是我在客户端或此测试集群中的任何其他节点上运行“hadoop版本”所获得的结果:Hadoop2.0.0-cdh4.4.0颠覆文
我正在尝试使用Sqoop2将数据从MySQL数据库导入HDFS,基本上遵循说明here.但是,由于找不到合适的驱动程序,Sqoop服务器无法连接到MySQL数据库。设置:这是我的设置的一些背景:Hadoop集群:我有一个运行CDH4.4.0的三机Hadoop集群。Sqoop2是通过ClouderaManager配置的,与Namenode运行在同一台机器上。我正在Windows机器上开发,这也是我的MySQL数据库所在的位置。Hadoop集群是一组三台Ubuntu服务器机器。MySQL数据库:我的Windows机器上运行着一个MySQL数据库,我已经检查过可以从我的Hadoop集群中的每