草庐IT

spark_apply

全部标签

scala - Spark Streaming迭代算法

我想创建一个用Scala编码的SparkStreaming应用程序。我希望我的应用程序:逐行读取HDFS文本文件将每一行分析为字符串,如果需要修改它,并且:将分析所需的状态保存在某种数据结构中(可能是哈希)在文本文件(任何类型)上输出所有内容我在第一步中没有遇到任何问题:vallines=ssc.textFileStream("hdfs://localhost:9000/path/")我的分析包括在Hashes中搜索匹配项以查找分析的String的某些字段,这就是为什么我需要维护状态并迭代地执行该过程。这些Hashes中的数据也是通过分析的字符串提取出来的。下一步我能做什么?

启动Spark-Shell实现词频统计

1.启动spark和Hadoop#根目录下启动Hadoop集群start-all.sh在spark的sbin目录下输入shstart-all.sh2.运行Spark-Shell命令在spark/bin目录下,执行Spark-Shell命令进入Spark-Shell交互式环境spark-shell--master上述命令中,--master表示指定当前连接的Master节点,用于指定Spark的运行模式,下图为master-url可取参数 如需查询Spark-Shell更多的使用方式可以执行“--help”命令 3.运行Spark-Shell读取HDFS文件通过启动Spark-Shell,并且使

hadoop - Oozie 无法检测 XML 中的 Spark workflow-app 标签

我正在尝试安排每天运行的Oozie作业。在shell中,我正在使用这个命令——ooziejob-oozie$OOZIE_URL-run-verbose\-config$PWD/this_file_is_a_formality.properties\-Doozie.coord.application.path="hdfs:///path/to/file/aggregates_workflow.xml"\-Dstart="$START"\-Dend="$END"(假设所有环境变量都设置正确。)我收到这个错误:错误:E0701:E0701:XML模式错误,cvc-elt.1.a:找不到元素“

scala - Apache Spark 中的转换和操作

我有scala代码,它使用通配符从HDFS获取多个输入文件,每个文件都进入一个函数,在该函数中对每个文件单独进行处理。importde.l3s.boilerpipe.extractors.KeepEverythingExtractorvaldata=sc.wholeTextFiles("hdfs://localhost:port/akshat/folder/*/*")valfiles=data.map{case(filename,content)=>filename}defdoSomething(file:String):(String,String)={//logicofproces

scala - 在 Hadoop 上使用 Spark 运行 Scala 程序

我已经创建了一个在文本文件中搜索单词的Scala程序。我用eclipse创建文件scala,然后用sbt和sbtassembly编译并创建一个jar。之后我在本地运行带有Spark的.jar并且它运行正确。现在我想尝试在hadoop上使用Spark运行这个程序,我有1台主机和2台工作机。我必须更改代码?我用主人的外壳做什么命令?我创建了一个存储桶,并将文本文件放入hadoop这是我的代码:importscala.io.Sourceimportorg.apache.spark.SparkContextimportorg.apache.spark.SparkContext._importo

hadoop - 如何使用spark for map-reduce flow来选择文件夹下所有csv文件的N列,前M行?

具体来说,假设我们有一个包含10k制表符分隔的csv文件的文件夹,这些文件具有以下属性格式(每个csv文件大约10GB):idnameaddresscity...1Mattadd1LA...2Willadd2LA...3Lucyadd3SF......而且我们有一个基于上面“name”的查找表namegenderMattMLucyF...现在我们有兴趣将每个csv文件的前100,000行输出为以下格式:idnamegender1MattM...我们可以使用pyspark来有效地处理这个问题吗?如何并行处理这些10k的csv文件? 最佳答案

hadoop - 启动 spark-submit 时出错,因为 avro

我正在用spark创建一个应用程序。我在Hadoop2的HDFS中使用avro文件。我使用maven并像这样包含avro:org.apache.avroavro-mapred1.7.6hadoop2我做了一个单元测试,当我使用mvntest时,一切正常。但是当我用spark启动时提交没有!我有这个错误:Exceptioninthread"main"org.apache.spark.SparkException:Jobabortedduetostagefailure:Task1instage0.0failed1times,mostrecentfailure:Losttask1.0inst

hadoop - Spark Standalone 与 python 和 scala 的行为不同

我正在探索Spark,发现与SparkStandalone(简称SS)不一致。这里有一些关于我的集群的线索:d125.dtvhadooptest->最佳数据节点d124.dtvhadooptestd211.dtvhadooptest->最差数据节点我正在通过python和scala运行完全相同的作业。当作业作为python脚本提交时,SS在执行程序进程之间几乎平等地共享任务。但是,当作业作为scala脚本提交时,SS会异构地共享任务。我想截图会更好地解释它:python:斯卡拉:使用scala,作业运行速度明显加快(大约55分钟)。使用python时,大约90分钟即可完成作业。我认为造

scala - 使用 Spark 从目录中读取多个文件

我正在尝试解决这个问题problem在kaggle使用spark:输入的层次结构是这样的:drivers/{driver_id}/trip#.csve.g.,drivers/1/1.csvdrivers/1/2.csvdrivers/2/1.csv我想读取父目录"drivers",对于每个子目录,我想创建一个pairRDD,键为(sub_directory,file_name)和值作为文件的内容我检查了this链接并尝试使用valtext=sc.wholeTextFiles("drivers")text.collect()失败并出现错误:java.lang.ArrayIndexOutO

java - Spark Java scala 错误

嘿,我想在我的Java项目中使用spark:我已经将此依赖项添加到我的pom文件中:org.apache.sparkspark-core_2.111.4.0我试过这段代码:importorg.apache.spark.api.java.JavaSparkContext;publicclasssparkSQL{publicvoidquery(){JavaSparkContextsc=newJavaSparkContext();}}我在我的main中调用了这个函数,但我得到了这个错误:Exceptioninthread"main"java.lang.NoClassDefFoundError