草庐IT

spark_libs

全部标签

scala - Spark BigQuery 连接器 : Writing ARRAY type causes exception: ""Invalid value for: ARRAY is not a valid value""

在GoogleCloudDataproc中运行Spark作业。使用BigQueryConnector将作业输出的json数据加载到BigQuery表中。BigQueryStandard-SQLdatatypesdocumentation表示支持ARRAY类型。我的Scala代码是:valoutputDatasetId="mydataset"valtableSchema="["+"{'name':'_id','type':'STRING'},"+"{'name':'array1','type':'ARRAY'},"+"{'name':'array2','type':'ARRAY'},"+

scala - 序列化和自定义 Spark RDD 类

我正在用Scala编写自定义SparkRDD实现,并且正在使用Sparkshell调试我的实现。我现在的目标是:customRDD.count毫无异常(exception)地成功。现在这就是我得到的:15/03/0623:02:32INFOTaskSchedulerImpl:Addingtaskset0.0with1tasks15/03/0623:02:32ERRORTaskSetManager:Failedtoserializetask0,notattemptingtoretryit.java.lang.reflect.InvocationTargetExceptionatsun.r

scala - 对 Spark 中的 Double/Int 值进行空检查

我是Spark的新手,如何检查Double中的Null值和scala或Spark中的Int值。像String我们可以这样做:valvalue=(FirstString.isEmpty())match{casetrue=>SecondStringcase_=>FirstString}我搜索了很多,但只找到了字符串值。您能否也建议我使用其他数据类型。提前致谢。 最佳答案 null仅适用于Scala中的AnyRef(即非原始类型)类型。AnyVal类型不能设置为null。例如://thebelowareAnyVal(s)andwontco

字节跳动 MapReduce - Spark 平滑迁移实践

摘要:本文整理自字节跳动基础架构工程师魏中佳在本次CommunityOverCodeAsia2023中的《字节跳动MapReduce-Spark平滑迁移实践》主题演讲。随着字节业务的发展,公司内部每天线上约运行100万+Spark作业,与之相对比的是,线上每天依然约有两万到三万个MapReduce任务,从大数据研发和用户角度来看,MapReduce引擎的运维和使用也都存在着一系列问题。在此背景下,字节跳动Batch团队设计并实现了一套MapReduce任务平滑迁移Spark的方案,该方案使用户仅需对存量作业增加少量的参数或环境变量即可完成从MapReduce到Spark的平缓迁移,大大降低了迁

hadoop - Spark 在 yarn-cluster 上提交 - Hive 错误

我正在使用使用spark1.6的HDP2.4发行版,我正在尝试在yarn-cluster上提交spark作业。当我在yarn-client和本地提交作业时,它正在运行。但是当使用yarn-cluster提交作业时会出现以下错误。java.lang.RuntimeException:Unabletoinstantiateorg.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClientCausedby:java.lang.NoClassDefFoundError:Couldnotinitializeclassorg.apache.d

hadoop - 如何在 spark sql 的配置单元上下文对象中查找登录/连接/当前用户?

如何在sparksql的配置单元上下文对象中找到登录/连接/当前用户?可以使用任何sql查询或Unix命令。?我试过了!我是谁;hive命令提示符中的命令。是不是最优解我需要在sql查询中获取登录的用户,并想使用sparksql将其插入到表中 最佳答案 在PySpark中,使用这个sqlContext._sc.sparkUser()或sqlContext.sql('selectcurrent_user()').show() 关于hadoop-如何在sparksql的配置单元上下文对象中查

hadoop - 需要通过 Spark 加载 Hana 表,没有 Spark Vora 集成

我有一个要求,我必须将数据从Hadoop加载到SAPHana。我已经使用MySql、DB2和其他一些带有Spark的RDBMS,并使用HSBCSparkDataframeAPI在1.5.0及更高版本中加载,也使用Cassandra和Hive但不是Hana。是否可以在不对Hana进行任何修改的情况下这样做不能以任何方式接触Hana安装的一面。 最佳答案 如果您更愿意留在Hadoop端,则可以使用Sqoop。带有Hive适配器的SAPBusinessObjects数据服务也能正常工作。 关于

scala - Intellij Idea - 运行 Spark 应用程序时禁用信息消息

在运行使用ApacheSpark和Hbase/Hadoop库的应用程序时,我收到了很多消息。例如:0[main]DEBUGorg.apache.hadoop.metrics2.lib.MutableMetricsFactory-fieldorg.apache.hadoop.metrics2.lib.MutableRateorg.apache.hadoop.security.UserGroupInformation$UgiMetrics.loginSuccesswithannotation@org.apache.hadoop.metrics2.annotation.Metric(abou

python - Pig//Spark 作业看不到 Python 模块

我的hadoop集群有一个反复出现的问题,偶尔功能代码会停止查看位于正确位置的python模块。我正在寻找可能遇到过相同问题的人的提示。当我第一次开始编程并且代码停止工作时,我在这里问了一个关于SO的问题,有人告诉我去sleep,早上它应该可以工作,或者其他一些“你是个傻瓜,你一定有改变了一些东西”之类的评论。我多次运行该代码,它有效,我去sleep了,早上我尝试再次运行它,但它失败了。有时我使用CTRL+C终止作业,有时我使用CTRL+Z。但这只会占用资源,除此之外不会引起任何其他问题——代码仍在运行。我还没有在代码运行后立即看到这个问题。这通常发生在第二天早上,当我在10小时前离开

java - HDInsight-Spark (spark-submit) 失败 - java.lang.NoSuchMethodError : com. microsoft.azure.storage.blob.CloudBlockBlob.startCopy

我们正在开发一个spark应用程序。它将托管在azureHDInsightSpark集群上。我们的用例是这样的,我们必须从azureblob存储中提取数据并使用spark处理数据,最后创建或将数据追加回azureblob存储。所以我们用了azure-storage-4.3.0.jar我们在eclipse项目中使用了Maven并添加了以下依赖com.microsoft.azureazure-storage4.3.0编译成功。甚至应用程序在本地机器上也能正常运行并且执行时没有任何问题。因此我们从eclipse创建了一个uber/fatjar并移植到我们的AzureHDInsight-Spa