草庐IT

SPARK_DIST_CLASSPATH

全部标签

java - Spark DataFrame 类的 union() 方法在哪里?

我正在为Spark使用Java连接器,并想联合两个DataFrame,但奇怪的是DataFrame类只有unionAll?这是故意的吗?有没有办法将两个DataFrame联合起来而不重复? 最佳答案 Isthisintentional如果认为可以安全地假设它是故意的。其他联合运算符,如RDD.union和DataSet.union也会保留重复项。如果你仔细想想是有道理的。虽然相当于UNIONALL的操作只是一个逻辑操作,不需要数据访问或网络流量,但发现不同的元素需要洗牌,因此可能非常昂贵。isthereawaytouniontwoD

java - Spark Java 和类路径

我正在尝试从http://www.sparkjava.com/开始,一个小型JavaWeb框架。说明告诉您将其添加为Maven依赖项(已完成),但是当我mvnpackage时,我得到一个classdefnotfoundforspark/Route。我假设这是因为Spark不在我的类路径中。我怎样才能添加它?它会放在pom.xml中吗?编辑:抱歉,这是我的pom.xml:4.0.0com.bernsteinbear.myappmyappjar1.0-SNAPSHOTmyapphttp://maven.apache.orgjunitjunit3.8.1testcom.sparkjavasp

java - 如何从 spark 中设置和获取静态变量?

我有这样一个类:publicclassTest{privatestaticStringname;publicstaticStringgetName(){returnname;}publicstaticvoidsetName(Stringname){Test.name=name;}publicstaticvoidprint(){System.out.println(name);}}在我的Spark驱动程序中,我像这样设置名称并调用print()命令:publicfinalclassTestDriver{publicstaticvoidmain(String[]args)throwsExc

Spark环境搭建

typora-copy-images-to:uploadSpark环境搭建什么是Spark回顾:Hadoop主要解决,海量数据的存储和海量数据的分析计算。Spark是一种基于内存的快速、通用、可扩展的大数据分析计算引擎Spark运行模式部署Spark集群大体上分为两种模式:单机模式与集群模式大多数分布式框架都支持单机模式,方便开发者调试框架的运行环境。但是在生产环境中,并不会使用单机模式。因此,后续直接按照集群模式部署Spark集群。下面详细列举了Spark目前支持的部署模式。(1)Local模式:在本地部署单个Spark服务(2)Standalone模式:Spark自带的任务调度模式。(国内

java - 如何从spark中的hbase表中获取所有数据

我在hbase中有一个名为UserAction的大表,它具有三个列族(歌曲、专辑、歌手)。我需要从“歌曲”列族中获取所有数据作为JavaRDD对象。我尝试了这段代码,但效率不高。有更好的解决方案吗?staticSparkConfsparkConf=newSparkConf().setAppName("test").setMaster("local[4]");staticJavaSparkContextjsc=newJavaSparkContext(sparkConf);staticvoidgetRatings(){Configurationconf=HBaseConfiguration

java - Spark - 方案 : https, 的无文件系统无法从 Amazon S3 加载文件

我正在尝试通过以下方式从AmazonS3存储桶加载一些数据:SparkConfsparkConf=newSparkConf().setAppName("Importer");JavaSparkContextctx=newJavaSparkContext(sparkConf);HiveContextsqlContext=newHiveContext(ctx.sc());DataFramemagento=sqlContext.read().json("https://s3.eu-central-1.amazonaws.com/*/*.json");最后一行会抛出一个错误:Exception

java - Apache Spark Lambda 表达式 - 序列化问题

我尝试在spark任务中使用lambda表达式,它抛出“java.lang.IllegalArgumentException:无效的lambda反序列化”异常。当代码类似于"transform(pRDD->pRDD.map(t->t._2))"时会抛出此异常。代码片段如下。JavaPairDStreamaggregate=pairRDD.reduceByKey((x,y)->x+y);JavaDStreamcon=aggregate.transform((Function,JavaRDD>)pRDD->pRDD.map((Function,Integer>)t->t._2));Java

java - Spark Streaming 历史状态

我正在构建用于检测欺诈ATM卡交易的实时处理。为了有效地检测欺诈,逻辑需要卡的最后交易日期,每天(或最近24小时)的交易金额总和其中一个用例是,如果在该国家/地区的最后一次交易超过30天后在本国境外进行的卡交易,则发送可能存在欺诈的警报因此尝试将Spark流式处理视为一种解决方案。为了实现这一点(可能我缺少关于函数式编程的想法)下面是我的伪代码stream=ssc.receiverStream()//inputreceivers1=stream.mapToPair()//createskeywithcardandtransactiondateasvalues2=stream.reduc

java - 在 Spark 中使用 Function 实现的序列化问题

我无法理解Java中的Spark函数实现。Thedocumentation给出了三种在map和reduce中使用函数的方法:通过lambda通过实现Function和Function2的内联类通过实现Function和Function2的内部类问题是我无法使2.和3.工作。例如,这段代码:publicintcountInline(Stringpath){Stringmaster="local";SparkConfconf=newSparkConf().setAppName("charCounterInLine").setMaster(master);JavaSparkContextsc

java - Spark 连接器错误 : WARN NettyUtil: Found Netty's native epoll transport, 但未在基于 linux 的操作系统上运行。改用 NIO

这是我的规范:Cassandra版本:3.0.0操作系统:MacOSXYosemite10.10.5Spark版本:1.4.1上下文:我在Cassandra中创建了一个键空间“movies”和一个表“movieinfo”。我已经按照post的指导安装并组装了一个jar文件。我编写了一个小脚本(如下)来测试我的连接:scala>sc.stopscala>importcom.datastax.spark.connector._importcom.datastax.spark.connector._scala>importorg.apache.spark.SparkConfimportorg