草庐IT

Mongo-Spark

全部标签

java - Spark (JAVA) - 具有多个聚合的数据框 groupBy?

我正在尝试使用JAVA在Spark上编写一个groupBy。在SQL中,这看起来像SELECTid,count(id)ascount,max(date)maxdateFROMtableGROUPBYid;但是这个查询的Spark/JAVA风格等价物是什么?假设变量table是一个数据框,以查看与SQL查询的关系。我在想类似的东西:table=table.select(table.col("id"),(table.col("id").count()).as("count"),(table.col("date").max()).as("maxdate")).groupby("id")这显然

java - Spark : How to save a dataframe with headers?

dataframe.saveasTextFile,仅以分隔格式保存数据。如何在JAVA中保存带有标题的数据框。sourceRufFrame.toJavaRDD().map(newTildaDelimiter()).coalesce(1,true).saveAsTextFile(targetSrcFilePath); 最佳答案 如果你想保存为csv文件,我建议使用spark-csv包。您可以简单地使用spark-csv保存您的数据框,如下所示。dataFrame.write.format("com.databricks.spark.c

java - 如何在 HTTP 响应主体(使用 Spark)中发送 QR 码的 PNG?

我想生成一个QR码图像,将其转换为PNG并将其作为HTTP响应返回给我的客户端。为了生成二维码,我使用了ZXing。我已经通过使用带有MatrixToImageWriter.writeToStream(...)的FileOutputStream来测试转换部分。这就像一个魅力。我目前使用的网络框架是Spark(版本1.1.1)。handle(...)方法的返回被设置为响应主体。我在这里做错了什么?使用当前的解决方案,我在使用Firefox执行GET请求时得到Theimage"http://localhost:4567/qrcode"cannotbedisplayedbecauseitco

java - 如何使用 Java 在 Spark SQL 中加入多列以在 DataFrame 中进行过滤

DataFramea=包含列x,y,z,kDataFrameb=包含列x,y,aa.join(b,)???我试过用a.join(b,a.col("x").equalTo(b.col("x"))&&a.col("y").equalTo(b.col("y"),"inner")但是Java抛出错误提示&&isnotallowed. 最佳答案 SparkSQL在标记为java_expr_ops的Column上提供了一组方法,专为Java互操作而设计。它包括and(另请参阅or)可以在此处使用的方法:a.col("x").equalTo(b.

java - 从 mongo 结果中检索 int 的最简单方法?

我像这样从mongo游标对象中提取一个整数:DBObjectmapObj=cursor.next();intautostart=(int)(double)(Double)mapObj.get("autostart");我必须进行三重转换才能将其转换为整数,这似乎很奇怪,有没有更好的方法? 最佳答案 我认为您真正要找的是这样的东西:DBObjectmapObj=cursor.next();intautostart=((Number)mapObj.get("autostart")).intValue();不转换为字符串,如果值从原始In

java - 嵌套属性上的 @Indexed 在 mongo 的 Spring-data 中不起作用

我有以下对象结构:@Document(collection="user")@TypeAlias("user")publicclassUser{@IdprivateObjectIdid;privateContactinfo=newContact();}这是联系人pojo:publicclassContact{@Indexed(unique=true)privateStringmail;}但是由于某些我不知道的原因,我没有看到Spring-data为info.mail属性创建唯一索引总而言之,我有用户对象的这个json结构:{_id:xxxxx,info:{mail:"abc@xyz.sh

java - 使用转换器时,如何将 header 添加到 spark 的响应中

我有这个:get("/test",(req,resp)->{returnrepository.getAll();},newJsonTransformer());我的变压器看起来像:publicclassJsonTransformerimplementsResponseTransformer{ObjectMapperom=newObjectMapper();publicJsonTransformer(){}@OverridepublicStringrender(Objecto)throwsException{returnom.writeValueAsString(o);}}我试过在响应中

Elasticsearch与Hadoop和Spark的整合与大数据处理

1.背景介绍1.背景介绍Elasticsearch是一个开源的搜索和分析引擎,基于Lucene库构建,具有实时搜索、文本分析、数据聚合等功能。Hadoop是一个开源的分布式存储和分析平台,由Google的MapReduce算法启发,具有高可扩展性和高容错性。Spark是一个快速、高效的大数据处理引擎,基于内存计算,具有高吞吐量和低延迟。随着大数据时代的到来,这三种技术在大数据处理领域中得到了广泛应用。Elasticsearch可以提供实时搜索和分析功能,Hadoop可以提供大规模数据存储和分析功能,Spark可以提供高效的数据处理功能。因此,将这三种技术整合在一起,可以实现更高效、更智能的大数

java - spark应用jar是否需要提交?

如标题所述,我想知道是否有必要spark-submit*.jar?我使用DatastaxEnterpriseCassandra有一段时间了,但现在我也需要使用Spark。DS320:DataStaxEnterpriseAnalyticswithApacheSpark的几乎所有视频我都看了并且没有关于从Java应用程序远程连接到Spark的内容。现在我有3个正在运行的DSE节点。我可以从sparkshell连接到Spark。但在尝试从Java代码连接到Spark2天后,我放弃了。这是我的Java代码SparkConfsparkConf=newSparkConf();sparkConf.s

java - Spark 上下文中的 Uima Ruta 内存不足问题

我在apachespark上运行一个UIMA应用程序。UIMARUTA有数以百万计的页面批量处理以进行计算。但有时我遇到内存不足异常。它有时会抛出异常,因为它成功处理了2000页,但有时在500页上失败。应用日志Causedby:java.lang.OutOfMemoryError:Javaheapspaceatorg.apache.uima.internal.util.IntArrayUtils.expand_size(IntArrayUtils.java:57)atorg.apache.uima.internal.util.IntArrayUtils.ensure_size(Int