草庐IT

spark_libs

全部标签

java - 如何使用 Maven 在 WAR、WEB-INF/lib 目录中包含特定的 jar

这是我的pom.xml,试图在WEB-INF/lib目录中创建一个包含特定3个库的WAR文件。我将它们包含在中标记和它们打包在lib目录中,但所有.class文件被忽略。我不能使用因为依赖项目有很多3rd方jar并且不受我的控制。这里有什么问题,或者有什么方法可以忽略除3个特定jar之外的所有jar吗?1.0frmIdfrm1.5.9frmwwarsrc/main/javasrc/main/resources**/*.javaorg.apache.maven.pluginsmaven-compiler-plugin3.21.61.6maven-war-plugin2.3src/main

java - Apache Spark - 内存异常错误 - IntelliJ 设置

当我尝试运行使用ApacheSpark的测试时,我遇到了以下异常:Exceptionencounteredwheninvokingrunonanestedsuite-Systemmemory259522560mustbeatleast4.718592E8.Pleaseusealargerheapsize.java.lang.IllegalArgumentException:Systemmemory259522560mustbeatleast4.718592E8.Pleaseusealargerheapsize.我可以通过更改配置中的vm选项来绕过错误,使其具有:-Xms128m-Xmx

java - spark - 如何减少 JavaPairRDD<Integer, Integer[]> 的洗牌大小?

我有一个JavaPairRDD我想在其上执行groupByKey行动。groupByKey行动给我一个:org.apache.spark.shuffle.MetadataFetchFailedException:Missinganoutputlocationforshuffle如果我没记错的话,这实际上是一个OutOfMemory错误。这只发生在大数据集中(在我的例子中,WebUI中显示的“ShuffleWrite”约为96GB)。我已经设置:spark.serializerorg.apache.spark.serializer.KryoSerializer在$SPARK_HOME/c

java - 从命令行使用 Ivy 时,如何让 Ivy 将依赖项复制到 lib 目录?

我有以下命令:java-jar...\ivy-2.2.0-rc1.jar-ivy...\ivy.xml我希望解决依赖关系并将它们复制到我项目的lib文件夹中。Ivy似乎解决了依赖关系但不进行复制。如果我运行ant任务,复制会正确发生。有谁知道为什么我的命令行调用没有复制到lib? 最佳答案 您缺少检索选项。java-jar$IVYJAR\-settingsivysettings.xml\-ivyivy.xml\-retrieve"lib/[artifact].[ext]"您指定如何从缓存中检索工件的模式默认情况下,独立的ivy程序只

java - Tomcat无法访问我的库在WEB-INF/lib中引用的jar库

我正在使用Tomcat7开发Web应用程序。它使用我的MyLib.jar,它位于webapps\MyApplication\WEB-INF\lib.这个库被Tomcat成功加载。问题在于MyLib.jar所需的库(比如A.jar和B.jar)。在创建MyLib.jar时,我添加了带有类路径的MANIFEST:otherLibs\A.jarotherLibs\B.jar(位于webapps\MyApplication\WEB-INF\lib\otherLibs下)。有趣的是,MyLib.jar可以从命令行运行,没有任何问题。当我将A.jar和B.jar复制到\lib目录时,这一切都适用于

java - 为什么我不能再从 AWS S3 in Spark 应用程序读取数据?

我已经升级到ApacheSpark1.5.1,但我不确定这是否导致了它。我在spark-submit中有我的访问key,它一直有效。Exceptioninthread"main"java.lang.NoSuchMethodError:org.jets3t.service.impl.rest.httpclient.RestS3Service.(Lorg/jets3t/service/security/AWSCredentials;)VSQLContextsqlContext=newSQLContext(sc);DataFramedf=sqlContext.read().format("c

java - 在 Spark/Jetty-server 中重新加载静态文件

我在这里描述了一些类似的问题:RefreshstaticfilesservedbySparkJava在我的应用程序中,用户可以将内容上传到一个文件夹,该文件夹也提供给用户Spark.staticFileLocation("/public");特征。我知道SparkJava在启动时只从该文件夹中读取一次“静态”内容,并且它不知道那里的变化。是否可以要求Spark(或通过Spark的Jetty)重新加载静态文件夹中的更改? 最佳答案 移动到externalStaticFileLocation("/var/www/public");

java - 从另一个应用程序启动它时如何正确等待 apache spark 启动器作业?

当我等待我的sparkapache工作完成但没有成功时,我试图避免使用“while(true)”解决方案。我有一个spark应用程序,它假设要处理一些数据并将结果放入数据库,我确实从我的spring服务调用它,并想等到工作完成。例子:带有方法的启动器:@Overridepublicvoidrun(UUIDdocId,Stringquery)throwsException{launcher.addAppArgs(docId.toString(),query);SparkAppHandlesparkAppHandle=launcher.startApplication();sparkApp

java - Spark Driver 内存和 Executor 内存

我是Spark的初学者,我正在运行我的应用程序以从文本文件中读取14KB数据,进行一些转换和操作(收集、收集AsMap)并将数据保存到数据库我在我的macbook上本地运行它,它有16G内存,8个逻辑核心。Java最大堆设置为12G。这是我用来运行应用程序的命令。bin/spark-submit--classcom.myapp.application--masterlocal[*]--executor-memory2G--driver-memory4G/jars/application.jar我收到以下警告2017-01-1316:57:31.579[Executortasklaunc

java - 将右无界时间间隔与 joda-lib 进行比较

是否可以确定两个无界区间(一个边界在无穷大的区间)是否重叠?我试过这个(以及其他类似的变体):Instantnow=newInstant(newDate().getTime());Intervali2=newInterval(now,(ReadableInstant)null);Intervali1=newInterval(now,(ReadableInstant)null);booleanoverlapping=i2.overlaps(i1);但是根据文档,使用null作为第二个参数意味着“现在”而不是“无限”。编辑:我找到了thisanswer在邮件列表中,所以Joda似乎是不可能