草庐IT

关于hive on spark部署后insert报错Error code 30041问题

报错问题描述ERROR:FAILED:ExecutionError,returncode30041fromorg.apache.hadoop.hive.ql.exec.spark.SparkTask.[wyh@hadoop1002spark]$*************************************************​ERROR:FAILED:ExecutionError,returncode30041fromorg.apache.hadoop.hive.ql.exec.spark.SparkTask.Failedtoexecutesparktask,withexcep

hive on spark hql 插入数据报错 Failed to create Spark client for Spark session Error code 30041

文章目录一、遇到问题二、排查过程:0、确认hive、spark版本1、确认SPARK_HOME环境变量2、hive创建的spark配置文件3、确认是否创建hdfs存储历史日志路径4、确认是否上传Spark纯净版jar包5、确认hive-site.xml配置文件三、解决问题四、后记一、遇到问题离线数仓hiveonspark模式,hive客户端sql插入数据报错Failedtoexecutesparktask,withexception'org.apache.hadoop.hive.ql.metadata.HiveException(FailedtocreateSparkclientforSpar

Failed to create Spark client for Spark session/30041Code

记录排错历程    问题简介:根据尚硅谷数仓4.0学习集群运行了一段时间,可以正常使用spark运行,出现阶段运行情况的红色框,但是不知道为什么突然有一次,返回30041code,无法运行创建sparksession。第一种情况:多尝试运行几次    刚开始是觉得集群内存不足,因为我的集群三台机器都是再虚拟机上的,整个电脑16G内存,每个hadoop10x分配4G左右,所以内存不足无法运行,当然这只是第一感觉,并没有查看日志证实。    通过xcallfree-h查看集群内存的运行情况,发现无法运行任务的时候,hadoop102内存使用了一些,注意这时候swap并没有用很多---------h