草庐IT

java - 无法使用来自 Spark 的 GSC 连接器连接 Google 存储文件

我在我的本地机器上编写了一个spark作业,它使用谷歌hadoop连接器(如https://cloud.google.com/dataproc/docs/connectors/cloud-storage中提到的gs://storage.googleapis.com/从谷歌云存储读取文件)我已经设置了具有计算引擎和存储权限的服务帐户。我的spark配置和代码是SparkConfconf=newSparkConf();conf.setAppName("SparkAPp").setMaster("local");conf.set("google.cloud.auth.service.acco

java - 使用 Kerberos 设置 Spark SQL 连接

我有一个简单的Java应用程序,它可以使用Hive或Impala使用如下代码连接和查询我的集群importjava.sql.Connection;importjava.sql.DriverManager;importjava.sql.ResultSet;importjava.sql.SQLException;importjava.sql.Statement;...Class.forName("com.cloudera.hive.jdbc41.HS2Driver");Connectioncon=DriverManager.getConnection("jdbc:hive2://myHos

java - Spark : Read an inputStream instead of File

我在Java应用程序中使用SparkSQL对CSV文件进行一些处理,使用Databricks进行解析。我正在处理的数据来自不同的来源(远程URL、本地文件、谷歌云存储),我习惯于将所有内容都变成一个InputStream,这样我就可以在不知道数据来自哪里的情况下解析和处理数据来自。我在Spark上看到的所有文档都是从路径读取文件,例如SparkConfconf=newSparkConf().setAppName("spark-sandbox").setMaster("local");JavaSparkContextsc=newJavaSparkContext(conf);SQLCont

Spark写入kafka(批数据和流式)

Spark写入(批数据和流式处理)Spark写入kafka批处理写入kafka基础#spark写入数据到kafkafrompyspark.sqlimportSparkSession,functionsasFss=SparkSession.builder.getOrCreate()#创建df数据df=ss.createDataFrame([[9,'王五',21,'男'],[10,'大乔',20,'女'],[11,'小乔',22,'女']],schema='idint,namestring,ageint,genderstring')df.show()#todo注意一:需要拼接一个value#在写入

java - 如何访问 spark javadoc 或来自 java 项目的源代码?

我在IntelliJ14CE上使用Java项目中的Spark。有没有办法导航到Spark源或javadoc?默认情况下,它只显示粗略的反编译代码,没有任何注释。如果有办法的话,我不介意导航到scala代码。但也许插入javadoc会更好,但我在任何地方都找不到它谢谢 最佳答案 我的诀窍是为IntelliJ安装Scala插件,然后我能够通过spark核心(用scala编写)进行导航和调试,尽管项目是用Java编写的,并且正确地看到Javadoc,它是从scala源代码中自动推断出来的。当然,您还需要正确设置Spark源代码,使用Gra

java - 在 Java 中获取 Spark 中的当前任务 ID

我需要在Spark中获取当前任务的ID。我一直在谷歌和官方API中搜索,但我能找到的唯一ID是执行者ID和RDD的ID。有谁知道如何获得任务的唯一ID?我已经看到类TaskInfo正是我要找的东西,但我不知道如何获取此类的实例。 最佳答案 为了获得特定的任务ID,您可以使用TaskContext:importorg.apache.spark.TaskContext;textFile.map(x->{TaskContexttc=TaskContext.get();System.out.println(tc.taskAttemptId(

java - 如何使用java spark下载文件?

我想为文件下载编写简单的restapi。我找不到关于它的文档,因为我知道我需要为响应设置mimetype='application/zip',但不清楚如何返回流。http://sparkjava.com/更新:此处解决示例代码:publicstaticvoidmain(String[]args){//setPort(8080);get("/hello",(request,responce)->getFile(request,responce));}privatestaticObjectgetFile(Requestrequest,Responseresponce){Filefile=n

2024-02-26(Spark,kafka)

1.SparkSQL是Spark的一个模块,用于处理海量结构化数据限定:结构化数据处理RDD的数据开发中,结构化,非结构化,半结构化数据都能处理。2.为什么要学习SparkSQLSparkSQL是非常成熟的海量结构化数据处理框架。学习SparkSQL主要在2个点:a.SparkSQL本身十分优秀,支持SQL语言\性能强\可以自动优化\API兼容\兼容HIVE等b.企业大面积在使用SparkSQL处理业务数据:离线开发,数仓搭建,科学计算,数据分析3.SparkSQL的特点a.融合性:SQL可以无缝的集成在代码中,随时用SQL处理数据b.统一数据访问:一套标准的API可以读写不同的数据源c.Hi

java - 从 S3 并行读取多个文件(Spark、Java)

我看到了一些关于此的讨论,但不太理解正确的解决方案:我想将几百个文件从S3加载到RDD中。这是我现在的做法:ObjectListingobjectListing=s3.listObjects(newListObjectsRequest().withBucketName(...).withPrefix(...));Listkeys=newLinkedList();objectListing.getObjectSummaries().forEach(summery->keys.add(summery.getKey()));//repeatwhileobjectListing.isTrunc

java - Spark 和 Java : Exception thrown in awaitResult

我正在尝试使用Java应用程序中的IP10.20.30.50和端口7077连接在虚拟机中运行的Spark集群,并运行字数统计示例:SparkConfconf=newSparkConf().setMaster("spark://10.20.30.50:7077").setAppName("wordCount");JavaSparkContextsc=newJavaSparkContext(conf);JavaRDDtextFile=sc.textFile("hdfs://localhost:8020/README.md");Stringresult=Long.toString(textF