草庐IT

sarama-cluster

全部标签

hadoop - Datanodes 处于事件状态,但我无法将文件复制到 HDFS [Hadoop 2.6.0 - Raspberry Pi Cluster]

我一直在使用RaspberryPis开发Hadoop集群,只是出于学习目的。我已经成功配置了所有的奴隶和主人(据我所知)。问题:HDFS无法复制本地文件。并根据http://Master:8088我有3个事件节点。(我在最后附上了截图)但是当我尝试将本地文件复制到HDFS时,出现以下异常:16/01/1206:20:43WARNhdfs.DFSClient:DataStreamerExceptionorg.apache.hadoop.ipc.RemoteException(java.io.IOException):File/LICENCE.txt._COPYING_couldonlyb

hadoop - 报告平台应该选择 yarn-cluster 还是 yarn-client?

我打算做的是使用现有数据开发一个报告平台。我有一个包含大量记录的现有RDBMS。所以我在用。(Hadoop2.7,Spark,Hive,JasperReports,Scoop-Architecuture)Scoop-将数据从RDBMS提取到HadoopHadoop-存储平台Hive-数据仓库Spark-因为Hive更像是批处理Hive上的Spark会加快速度JasperReports-生成报告。鉴于我已经阅读了以下内容Whatisyarn-clientmodeinSpark?Differencebetweenyarn-clientmodeandyarn-clustermode我应该使用

apache-spark - 如何将配置从 spark-submit 传递到 yarn cluster?

我想知道有什么方法可以让spark-submit临时更改yarn作业的配置?问题是因为我们的Sparkoveryarncluster的historyserver只允许admin访问,不方便用户检索自己job的log。我了解到mapreduce-default.xml中的“mapreduce.job.acl-view-job”可以更改特定作业的ACL。因为我正在使用spark-submit来启Action业,并且“--conf”是为spark本身保留的,但是我如何从命令行和应用程序一起设置yarn的配置? 最佳答案 您可以修改Spar

hadoop - Spark yarn-cluster 模式 - 读取通过 --files 传递的文件

我正在使用yarn-clustermaster运行我的spark应用程序。应用程序有什么作用?外部服务根据对RESTService的HTTP请求生成一个jsonFileSpark需要读取这个文件并在解析完json之后做一些工作想到的最简单的解决方案是使用--files加载该文件。在yarn-cluster模式下读取文件意味着它必须在hdfs上可用(如果我是对的?)并且我的文件正在被复制到这样的路径:/hadoop_user_path/.sparkStaging/spark_applicationId/myFile.json我当然可以在哪里阅读它,但是我找不到从任何配置/SparkEnv

hadoop - Hive 中 Cluster By 和 CLUSTERED BY 的区别?

我想知道Hive中ClusterBy和CLUSTEREDBY的主要区别是什么。ClusterBy用于对表进行分桶。并且会用到Hash函数。CLUSTEREDBY用于在reducer中按值排序。还有什么区别吗。请告诉我谢谢文卡特巴拉。 最佳答案 “聚类依据”仅将您的键分布到不同的桶中,“聚类依据”确保N个缩减器中的每一个都获得不重叠的范围,然后在缩减器中按这些范围排序。主要区别在于排序。 关于hadoop-Hive中ClusterBy和CLUSTEREDBY的区别?,我们在StackOve

hadoop - 无法初始化 Cluster Hadoop-2.7.1 和 YARN

对于示例中的简单程序字数统计,即使所有作业都在运行,提交作业也会失败。hadoopjarhadoop-mapreduce-examples-2.7.1.jarwordcounthdfs://localhost:9000/inputhdfs://localhost:9000/outputJPS31265SecondaryNameNode31064DataNode30929NameNode31478ResourceManager32354Jps错误java.io.IOException:CannotinitializeCluster.Pleasecheckyourconfiguration

hadoop - java.lang.IllegalStateException : No clusters found. 检查你的 -c 路径

我在命令行使用以下命令使用Mahoutkmeans算法对数据进行聚类mahoutkmeans-i/vect_out/tfidf-vectors/-c/out_canopy-o/out_kmeans-dmorg.apache.mahout.common.distance.SquaredEuclideanDistanceMeasure-cd1.0-x20-cl其中/out_canopy是包含使用Mahoutcanopy集群创建的集群的目录,其中包含一个clusters-0目录,该目录本身包含一个名为_logs的目录和一个文件命名为part-r-00000但是一直报如下错误java.lang

hadoop - Spark : yarn cluster mode can't read hdfs path (No such file or directory)

我在yarn模式下使用spark提交,但我收到了这个错误:显然我的输入路径hdfs://缺少一个'/'我正在通过hdfs://master:8020/usr/jimmy/Test/,但是日志输出是日志文件中的hdfs:/master:8020/usr/jimmy/Test/Personal1(Personal1在我的代码中指定)缺少的'/'显然是问题所在我能做什么?请帮帮我我的命令:./bin/spark-submit--masteryarn-cluster--classMovie.Movies/usr/jimmy/Move.jarhdfs://master:8020/usr/jimm

hadoop - cluster.getJob 在 hadoop 中返回 null

publicvoidsetup(Contextcontext)throwsIOException,InterruptedException{Configurationconf=context.getConfiguration();org.apache.hadoop.mapreduce.Clustercluster=neworg.apache.hadoop.mapreduce.Cluster(conf);JobcurrentJob=cluster.getJob(context.getJobID());mapperCounter=currentJob.getCounters().findC

windows - 在 yarn cluster (linux) : Error no sheme for Filesystem "C" 上从客户端 (windows) 执行 spark

我想将一个spark应用程序(只是一个简单的HelloWorld应用程序)部署到我的hadoop集群。在我的Windows机器上使用spark提交,我使用--masteryarn在客户端模式下执行应用程序。连接到hadoop集群是成功的,在集群上的日志文件中可以看到。(hadoopconf文件已经从集群下载下来,保存在客户端windows机器上,环境变量已经设置好)。使用hadoop2.7和spark1.6这是使用的spark-submit命令:>spark-submit--masteryarn--class"SimpleApp"..\..\SimpleApp\target\scala