草庐IT

spark_libs

全部标签

java - 使用 Java API 创建一个简单的 1 行 Spark DataFrame

在Scala中,我可以从内存中的字符串创建一个单行DataFrame,如下所示:valstringAsList=List("buzz")valdf=sqlContext.sparkContext.parallelize(jsonValues).toDF("fizz")df.show()当df.show()运行时,它输出:+-----+|fizz|+-----+|buzz|+-----+现在我正尝试从Java类中执行此操作。显然JavaRDD没有toDF(String)方法。我试过:ListstringAsList=newArrayList();stringAsList.add("buz

Spark Doris Connector 可以支持通过 Spark 读取 Doris 数据类型不兼容报错解决

1、版本介绍:doris版本:1.2.8SparkConnectorforApacheDoris版本:spark-doris-connector-3.3_2.12-1.3.0.jar:1.3.0-SNAPSHOTspark版本:spark-3.3.12、SparkDorisConnectorSparkDorisConnector-ApacheDoris目前最新发布版本: ReleaseApacheDorisSparkConnector1.3.0Release·apache/doris-spark-connector·GitHub2.1、SparkDorisConnector概述SparkDor

java - 如何在 lib 文件夹中创建一个包含所有依赖项的 Netbeans 样式的 Jar?

如问题所述,如何按照打包Netbeansnative项目的方式打包NetbeansMaven项目:所有依赖项都在一个单独的lib文件夹中主项目jar及其类路径中包含lib文件夹的list 最佳答案 在你的pom.xml文件中......1)将此代码添加到您的项目->属性节点。这将在一个中心位置定义您的主类,以便在许多插件中使用。project.Main.class2)将此代码添加到您的项目->构建->插件节点。它将把你所有的jar依赖项收集到一个lib文件夹中,并使用正确的类路径引用编译你的主类jar:maven-dependenc

大数据存储与处理技术之Spark

1、Spark简介•Spark最初由美国加州伯克利大学(UCBerkeley)的AMP实验室于2009年开发,是基于内存计算的大数据并行计算框架,可用于构建大型的、低延迟的数据分析应用程序•2013年Spark加入Apache孵化器项目后发展迅猛,如今已成为Apache软件基金会最重要的分布式计算系统开源项目之一•Spark在2014年打破了Hadoop保持的基准排序纪录•Spark用十分之一的计算资源,获得了比Hadoop快3倍的速度Spark具有如下几个主要特点:•运行速度快:使用DAG执行引擎以支持循环数据流与内存计算•容易使用:支持使用Scala、Java、Python和R语言进行编程

java - 使用 DataStax Spark 连接器在 Cassandra 中保存空值

我尝试使用Spark和CassandraSparkConnector将流数据保存到Cassandra。我做了类似下面的东西:创建模型类:publicclassContentModel{Stringid;Stringavailable_at;//maybenullpublicContentModel(Stringid,Stringavailable_at){this.id=id;this.available_at=available_at,}}将流媒体内容映射到模型:JavaDStreamcontentsToModel=myStream.map(newFunction(){@Overri

java - Spark Streaming Kafka 消息未被消费

我想使用Spark(1.6.2)Streaming从Kafka(代理v0.10.2.1)中的主题接收消息。我正在使用Receiver方法。代码如下:publicstaticvoidmain(String[]args)throwsException{SparkConfsparkConf=newSparkConf().setAppName("SimpleStreamingApp");JavaStreamingContextjavaStreamingContext=newJavaStreamingContext(sparkConf,newDuration(5000));//MaptopicM

合并spark structured streaming处理流式数据产生的小文件

备注:By远方时光原创,可转载,open合作微信公众号:大数据左右手背景:做流批一体,湖仓一体的大数据架构,常见的做法就是数据源->sparkStreaming->ODS(数据湖)->sparkstreaming->DWD(数据湖)->...那么数据源->sparkStreaming->ODS,以这段为例,在数据源通过sparkstructuredstreaming写入ODS在数据湖(DeltaLake)落盘时候必然会产生很多小文件目的:为了在批处理spark-sql运行更快,也避免因为小文件而导致报错影响:WARNING:Failedtoconnectto/172.16.xx.xx:9866

java - 无法使用来自 Spark 的 GSC 连接器连接 Google 存储文件

我在我的本地机器上编写了一个spark作业,它使用谷歌hadoop连接器(如https://cloud.google.com/dataproc/docs/connectors/cloud-storage中提到的gs://storage.googleapis.com/从谷歌云存储读取文件)我已经设置了具有计算引擎和存储权限的服务帐户。我的spark配置和代码是SparkConfconf=newSparkConf();conf.setAppName("SparkAPp").setMaster("local");conf.set("google.cloud.auth.service.acco

java - 使用 Kerberos 设置 Spark SQL 连接

我有一个简单的Java应用程序,它可以使用Hive或Impala使用如下代码连接和查询我的集群importjava.sql.Connection;importjava.sql.DriverManager;importjava.sql.ResultSet;importjava.sql.SQLException;importjava.sql.Statement;...Class.forName("com.cloudera.hive.jdbc41.HS2Driver");Connectioncon=DriverManager.getConnection("jdbc:hive2://myHos

java - Spark : Read an inputStream instead of File

我在Java应用程序中使用SparkSQL对CSV文件进行一些处理,使用Databricks进行解析。我正在处理的数据来自不同的来源(远程URL、本地文件、谷歌云存储),我习惯于将所有内容都变成一个InputStream,这样我就可以在不知道数据来自哪里的情况下解析和处理数据来自。我在Spark上看到的所有文档都是从路径读取文件,例如SparkConfconf=newSparkConf().setAppName("spark-sandbox").setMaster("local");JavaSparkContextsc=newJavaSparkContext(conf);SQLCont