草庐IT

Spark-JobServer

全部标签

java - Spark Streaming 历史状态

我正在构建用于检测欺诈ATM卡交易的实时处理。为了有效地检测欺诈,逻辑需要卡的最后交易日期,每天(或最近24小时)的交易金额总和其中一个用例是,如果在该国家/地区的最后一次交易超过30天后在本国境外进行的卡交易,则发送可能存在欺诈的警报因此尝试将Spark流式处理视为一种解决方案。为了实现这一点(可能我缺少关于函数式编程的想法)下面是我的伪代码stream=ssc.receiverStream()//inputreceivers1=stream.mapToPair()//createskeywithcardandtransactiondateasvalues2=stream.reduc

java - 在 Spark 中使用 Function 实现的序列化问题

我无法理解Java中的Spark函数实现。Thedocumentation给出了三种在map和reduce中使用函数的方法:通过lambda通过实现Function和Function2的内联类通过实现Function和Function2的内部类问题是我无法使2.和3.工作。例如,这段代码:publicintcountInline(Stringpath){Stringmaster="local";SparkConfconf=newSparkConf().setAppName("charCounterInLine").setMaster(master);JavaSparkContextsc

java - Spark 连接器错误 : WARN NettyUtil: Found Netty's native epoll transport, 但未在基于 linux 的操作系统上运行。改用 NIO

这是我的规范:Cassandra版本:3.0.0操作系统:MacOSXYosemite10.10.5Spark版本:1.4.1上下文:我在Cassandra中创建了一个键空间“movies”和一个表“movieinfo”。我已经按照post的指导安装并组装了一个jar文件。我编写了一个小脚本(如下)来测试我的连接:scala>sc.stopscala>importcom.datastax.spark.connector._importcom.datastax.spark.connector._scala>importorg.apache.spark.SparkConfimportorg

java - 在 Spark 中排序时出现 NotSerializableException

我正在尝试编写一个简单的流处理Spark作业,它将获取消息列表(JSON格式),每条消息属于一个用户,计算每个用户的消息并打印前十名用户。但是,当我定义Comparator>来对减少的计数进行排序时,整个事情都失败了,并抛出了java.io.NotSerializableException。我对Spark的Maven依赖:org.apache.sparkspark-core_2.9.30.8.0-incubating我正在使用的Java代码:publicstaticvoidmain(String[]args){JavaSparkContextsc=newJavaSparkContext

java - Spark SQL 性能

我的代码算法如下第一步。获取一个hbase实体数据到hBaseRDDJavaPairRDDhBaseRDD=jsc.newAPIHadoopRDD(hbase_conf,TableInputFormat.class,ImmutableBytesWritable.class,Result.class);第二步。将hBaseRDD转换为rowPairRDD//intherowPairRDDthekeyishbase'srowkey,TheRowisthehbase'sRowdataJavaPairRDDrowPairRDD=hBaseRDD.mapToPair(***);dataRDD.r

java.lang.NoClassDefFoundError : Could not initialize class when launching spark job via spark-submit in scala code 错误

我有一个代码,如下所示objectErrorTest{caseclassAPIResults(status:String,col_1:Long,col_2:Double,...)deffuncA(rows:ArrayBuffer[Row])(implicitdefaultFormats:DefaultFormats):ArrayBuffer[APIResults]={//callsomeAPIanggetresultsandreturnAPIResults...}//MARK:loadpropertiesvalprops=loadProperties()privatedefloadPr

java - Spark Dataframe Write to CSV 在 Standalone Cluster Mode 下创建_temporary 目录文件

我在一个有2个工作节点的集群中运行sparkjob!我正在使用下面的代码(sparkjava)将计算的数据帧作为csv保存到工作节点。dataframe.write().option("header","false").mode(SaveMode.Overwrite).csv(outputDirPath);我试图了解spark如何在每个工作节点上写入多个部分文件。Run1)worker1有partfiles和SUCCESS;worker2有_temporarty/task*/part*每个任务都有部分文件运行。Run2)worker1有部分文件和_temporary目录;worker2

java - 如何在不使用 spark-submit 的情况下将 java 程序中的 spark 作业提交到独立的 spark 集群?

我正在使用spark执行一些计算,但希望它从java应用程序提交。使用spark-submit脚本提交时它可以正常使用。有人试过这样做吗?谢谢。 最佳答案 不要忘记将包含您的代码的胖JAR添加到上下文中。valconf=newSparkConf().setMaster(...).setAppName(...).setJars("/path/to/code.jar")valsc=newSparkContext(conf) 关于java-如何在不使用spark-submit的情况下将java

大数据毕业设计hadoop+spark+hive微博预警系统 微博数据分析可视化大屏 微博情感分析 微博爬虫 微博大数据 微博推荐系统 微博预测系统 计算机毕业设计 知识图谱 机器学习 深度学习

北京邮电大学世纪学院毕业设计(论文)开题报告      题  目       基于深度学习的微博舆情分析及预测系统                                   学生姓名                    学   号                 专业名称                    年   级    2020级     指导教师       邓玉洁      职   称    副教授      所在系(院)           计算机科学与技术                                2023  年12 月11 日说      明1

java - Spark的Column.isin函数不带List

我正在尝试从我的SparkDataframe中过滤掉行。valsequence=Seq(1,2,3,4,5)df.filter(df("column").isin(sequence))不幸的是,我得到了一个不受支持的文字类型错误java.lang.RuntimeException:Unsupportedliteraltypeclassscala.collection.immutable.$colon$colonList(1,2,3,4,5)根据documentation它需要一个scala.collection.Seq列表我想我不想要文字?那我可以接受什么,某种包装类?