草庐IT

spark_libs

全部标签

performance - Spark 。数据缓存?

我正在spark-shell中测试以下脚本-分区表的单分区扫描。vals=System.nanoTimevarq=s"""select*frompartitioned_tablewherepart_column='part_column_value'"""spark.sql(q).showprintln("Elapsed:"+(System.nanoTime-s)/1e9+"seconds")第一次执行大约需要30秒,而所有后续执行大约需要2秒。如果我们看一下运行时统计信息——在第一次执行之前还有两个额外的作业看起来有1212个阶段的作业扫描表中的所有分区(分区总数1199,该表的HD

Hadoop - 当有 Spark 作业正在运行时,Sqoop 作业卡在已接受状态

目前我有一个始终需要运行的spark作业(java)。它不需要太多资源。但是,每当我运行sqoop作业(MapReduce)时,该作业都会卡在已接受状态:WAITING分配、启动AM容器并向RM注册。我检查了Ambari,用于调度的spark配置是公平的。为了进行测试,我尝试运行2个相同的spark作业,但没有出现任何问题(两者的状态均为RUNNING)。应该有足够的内核和内存来运行mapreduce作业。Spark提交命令:/usr/hdp/current/spark-client/bin/spark-submit\--classcom.some.App\--masteryarn-c

hadoop - 将 LD_PRELOAD 与 Apache Spark(或 YARN)结合使用

我们在ApacheHadoopYARN上运行Spark作业。我特别需要在这些作业上使用“LD_PRELOAD技巧”。(在任何人panic之前,它不是用于生产运行;这是自动化作业测试的一部分)。我知道如何在作业中提交额外的文件,我知道如何在节点上设置环境变量,所以将这些设置添加到spark-defaults.conf几乎提供了一个解决方案:spark.files=/home/todd/pwn_connect.sospark.yarn.appMasterEnv.LD_PRELOAD=pwn_connect.sospark.executorEnv.LD_PRELOAD=pwn_connect

java - 与 csv 文件相比,将 mysql 表转换为 spark 数据集非常慢

我在Amazons3中有一个大小为62mb(114000行)的csv文件。我正在将它转换为spark数据集,并从中获取前500行。代码如下;DataFrameReaderdf=newDataFrameReader(spark).format("csv").option("header",true);Datasetset=df.load("s3n://"+this.accessId.replace("\"","")+":"+this.accessToken.replace("\"","")+"@"+this.bucketName.replace("\"","")+"/"+this.fil

hadoop - docker 中的 yarn - __spark_libs__.zip 不存在

我浏览了thisStackOverflow帖子,但它们对我帮助不大。我正在尝试让Yarn在现有集群上运行。到目前为止,我们一直在使用sparkstandalonemanger作为我们的资源分配器,它一直按预期工作。这是我们架构的基本概述。白框中的所有内容都在docker容器中运行。从master-machine我可以从yarn资源管理器容器中运行以下命令并运行一个使用yarn的spark-shell:./pyspark--masteryarn--驱动程序内存1G--executor-memory1G--executor-cores1--conf"spark.yarn.am.memory

oracle - 如何在 Spark 中使用 Hadoop Credential provider 连接到 Oracle 数据库?

我正在尝试在Spark和Oracle以及Sqoop和Oracle之间建立安全连接。经过研究,我发现了两种不同设置的两种不同选择。将Spark连接到使用spark.jdbc.b64password加密密码的Oracle,并进一步在spark代码中解密并在jdbcurl中使用它。使用Hadoop凭据提供程序创建密码文件,并进一步在Sqoop中使用它连接到Oracle。现在将密码保存在两个不同的文件中似乎不是一个好习惯。我的问题是我们可以在spark中使用Hadoop凭据提供程序来使用为Sqoop创建的相同凭据配置文件吗?如果您有任何其他选择可以使它变得更好,请提供帮助。

hadoop - 在 Spark SQL 中使用正则表达式函数从字符串中提取特定数字

我在mysql中有一个表,它有POST_ID和相应的INTEREST:我使用以下正则表达式查询来选择包含1,2,3的兴趣。SELECT*FROMINTEREST_POSTwhereINTERESTREGEXP'(?=.*[[::]])(?=.*[[::]])(?=.*[[::]])';我在HDFS中导入了表。但是,当我在SparkSQL中使用相同的查询时,它显示空记录。如何在spark中使用这里的REGEXP函数来选择包含1,2,3的兴趣? 最佳答案 您正在使用的正则表达式需要稍微更改一下。您可以执行以下操作。scala>valmy

hadoop - Hadoop-3.0.0 与旧版本的 Hive、Pig、Sqoop 和 Spark 的兼容性如何

我们目前在10节点集群上使用hadoop-2.8.0,并计划升级到最新的hadoop-3.0.0。我想知道如果我们将hadoop-3.0.0与旧版本的Spark和其他组件(如Hive、Pig和Sqoop)一起使用,是否会出现任何问题。 最佳答案 最新的Hive版本不支持Hadoop3.0,看来以后Hive可能会建立在Spark或者其他计算引擎上。 关于hadoop-Hadoop-3.0.0与旧版本的Hive、Pig、Sqoop和Spark的兼容性如何,我们在StackOverflow上找

hadoop - 实例化 HiveSessionState 时的 Spark2 数据加载问题

在集群模式下使用Spark2读取数据期间出现以下问题。“java.lang.IllegalArgumentException:实例化‘org.apache.spark.sql.hive.HiveSessionState’时出错:”在谷歌搜索了很多之后,我对这个问题一无所知。请帮忙。我运行的代码spark=SparkSession.builder.getOrCreate();vallines:Dataset[String]=spark.read.textFile("/data/sample/abc.csv").异常来自上面的行。异常全栈跟踪:ERRORyarn.ApplicationMa

hadoop - 如何在写入 hive orc 表时合并 spark 中的小文件

我正在从s3读取csv文件并作为orc写入配置单元表。在写入时,它正在写入很多小文件。我需要合并所有这些文件。我设置了以下属性:spark.sql("SEThive.merge.sparkfiles=true")spark.sql("SEThive.merge.mapredfiles=true")spark.sql("SEThive.merge.mapfiles=true")spark.sql("sethive.merge.smallfiles.avgsize=128000000")spark.sql("sethive.merge.size.per.task=128000000")除了