草庐IT

java - 使用 Spark [`cartesian()` 问题创建邻居矩阵]

我是Spark初学者,我面临以下问题:我有一个项目集合(假设它们是笛卡尔坐标或二维点),我想获取每个项目的附近元素。决定一个项目是否靠近另一个取决于一个函数(假设我们想要所有欧几里德距离小于给定值的点)。当然,获得一个点的邻居是微不足道的,我已经做到了。只需过滤项目即可。我不能做的是为集合中的所有点获取它们,我不知道如何有效地做到这一点。我在这里写了一个我想从一个小数据集中得到的结果的例子,以更清楚地说明我的需求:sourceData=[(0,1),(1,1),(0,0),(50,10),(51,11)]result=[(0,1)=>[(1,1),(0,0)],(1,1)=>[(0,1

hadoop - 动态加载文件时的 Spark Streaming 和 Data Locality

我正在运行一个spark流应用程序,它从Kafka接收HDFS上的文件路径,应该打开这些文件并对它们执行某种计算。问题是我无法享受数据局部性的好处,因为执行程序可能在任何节点上运行,而打开文件的执行程序不一定是持有文件的执行程序。有没有一种方法可以按照我介绍的方式动态打开文件,同时保持数据局部性?谢谢,丹尼尔 最佳答案 我不确定你打开文件的意思,如果你能分享一些代码会很有帮助,但如果你使用的是sc.textFile,那是一个RDD转换。转换被集群管理器安排为任务,因此不一定会从运行DStream转换的执行器节点执行。

scala - 如何使用 spark 生成大量随机整数?

我需要很多随机数,每行一个。结果应该是这样的:24324243244234234423423413103131310313...所以我写了这个spark代码(对不起,我是Spark和scala的新手):importutil.Randomimportorg.apache.spark.SparkConfimportorg.apache.spark.SparkContextimportorg.apache.spark.SparkContext._objectRandomIntegerWriter{defmain(args:Array[String]){if(args.length")Syst

hadoop - 在 HDP (2.2) 平台上使用 Yarn-Client 上的 PySpark 将 Hbase 表读取到 Spark(1.2.0.2.2.0.0-82) RDD 时出现异常 "unread block data"

在HDP(2.2)上使用Yarn-Client(2.6.0)上的PySpark将Hbase(0.98.4.2.2.0.0)表读取到Spark(1.2.0.2.2.0.0-82)RDD时出现奇怪的异常)植物形态:2015-04-1419:05:11,295WARN[task-result-getter-0]scheduler.TaskSetManager(Logging.scala:logWarning(71))-Losttask0.0instage0.0(TID0,hadoop-node05.mathartsys.com):java.lang.IllegalStateException

hadoop - 如何使用 hadoop 自定义输入格式调整 Spark 应用程序

我的spark应用程序使用自定义hadoop输入格式处理文件(平均大小为20MB),并将结果存储在HDFS中。以下是代码片段。Configurationconf=newConfiguration();JavaPairRDDbaseRDD=ctx.newAPIHadoopFile(input,CustomInputFormat.class,Text.class,Text.class,conf);JavaRDDmapPartitionsRDD=baseRDD.mapPartitions(newFlatMapFunction>,myClass>(){//mylogicgoeshere}//f

hadoop - Apache Spark JavaSchemaRDD 是空的,即使它的输入 RDD 有数据

我有大量超过40列的制表符分隔文件。我想对其应用聚合,只选择几列。我认为ApacheSpark是最好的选择,因为我的文件存储在Hadoop中。我有以下程序publicclassMyPOJO{intfield1;Stringfield2;etc}JavaSparkContextsc;JavaRDDdata=sc.textFile("path/input.csv");JavaSQLContextsqlContext=newJavaSQLContext(sc);JavaRDDrdd_records=sc.textFile(data).map(newFunction(){publicRecor

scala - Spark 流式传输多个套接字源

我是Spark的新手。对于我的项目,我需要合并来自不同端口上不同流的数据。为了测试我做了一个练习,目的是打印来自不同端口的流的数据。下面你可以看到代码:objecthello{defmain(args:Array[String]){valssc=newStreamingContext(newSparkConf(),Seconds(2))vallines9=ssc.socketTextStream("localhost",9999)vallines8=ssc.socketTextStream("localhost",9998)lines9.print()lines8.print()ssc

hadoop - Spark 错误 : Server IPC version 9 cannot communicate with client version 4

我运行的是hadoop2.7.0版本、scala2.10.4、java1.7.0_21和spark1.3.0我创建了一个如下所示的小文件hduser@ubuntu:~$cat/home/hduser/test_sample/sample1.txtEid1,EName1,EDept1,100Eid2,EName2,EDept1,102Eid3,EName3,EDept1,101Eid4,EName4,EDept2,110Eid5,EName5,EDept2,121Eid6,EName6,EDept3,99运行以下命令时出现错误。scala>valemp=sc.textFile("/hom

java - spark submit 命令的命令行参数中是否有字符限制?

我还想知道在sparksubmit命令的参数中是否有任何特殊字符不能使用?我也想知道我们可以将整个嵌套的Json字符串传递给spark提交命令中的参数吗?另一个问题是如何使用java代码(来自另一个程序)运行spark程序?那么,我们是否必须在集群(安装了spark的linux机器)上运行我们的其他程序才能运行我的spark程序?这件事我太糊涂了;请提出建议。 最佳答案 对于你的第二个问题:另一个问题是如何使用java代码(来自另一个程序)运行spark程序?在你的java程序中如果你有一个Maven项目,你可以添加一个maven依

azure - 如何从 C# 中自动化 Azure Spark?

我可以创建集群,但我该如何自动执行脚本?varclusterInfo=newClusterCreateParametersV2{Name=clusterConfig.ClusterName,...ClusterType=ClusterType.Spark};`cluster.RunScript()?我可以获得SparkContext吗?https://azure.microsoft.com/en-us/documentation/articles/hdinsight-apache-spark-use-bi-tools/ 最佳答案 今