草庐IT

spark_libs

全部标签

scala - 用于 Spark 集成测试的 Hive 配置

我正在寻找一种方法来配置Hive以进行SparkSQL集成测试,以便将表写入临时目录或测试根目录下的某个位置。我的调查表明这需要同时设置fs.defaultFS和hive.metastore.warehouse.dir之前HiveContext被build。只需设置后者,如本answer中所述不适用于Spark1.6.1。valsqlc=newHiveContext(sparkContext)sqlc.setConf("hive.metastore.warehouse.dir",hiveWarehouseDir)表元数据位于正确的位置,但写入的文件位于/user/hive/wareho

hadoop - Spark Streaming StreamingContext 事件计数

sparkdocs状态:OnlyoneStreamingContextcanbeactiveinaJVMatthesametime.想象一下我计划从两个Kafka主题读取/处理数据的情况,其中一个作业从一个Kafka主题获取数据,另一个从另一个Kafka主题获取数据。我可以在同一个hadoop集群上同时触发这两个作业吗?它还指出,Onceacontexthasbeenstopped,itcannotberestarted.因此,如果由于某种原因我必须停止spark作业,有什么方法可以重新启动它?我是否通过oozie或其他方式触发它? 最佳答案

scala - Spark Hadoop 广播失败

运行spark-submit作业并收到“无法获取broadcast_58_piece0...”错误。我真的不确定我做错了什么。我是否过度使用了UDF?功能太复杂?作为我的目标的总结,我正在解析pdf中的文本,这些文本作为base64编码的字符串存储在JSON对象中。我正在使用ApacheTika获取文本,并尝试大量使用数据帧来简化操作。我写了一段代码,通过tika将文本提取作为“主”之外的一个函数在数据上作为RDD运行,并且运行完美。但是,当我尝试将提取作为数据帧上的UDF引入main时,它会以各种不同的方式出现问题。在我到达这里之前,我实际上是在尝试将最终数据框编写为:valid.t

scala - Spark(Scala)从驱动程序写入(和读取)本地文件系统

第一个问题:我有一个带有hadoop的2节点虚拟集群。我有一个运行Spark作业的jar。此jar接受作为cli参数:commands.txt文件的路径,该文件告诉jar运行哪些命令。我使用spark-submit运行作业,我注意到我的从节点没有运行,因为它找不到主节点本地的commands.txt文件。这是我用来运行它的命令:./spark-1.6.1-bin-hadoop2.6/bin/spark-submit--classuniv.bigdata.course.MainRunner--masteryarn\--deploy-modecluster--executor-memory

linux - 在现有的 Hadoop 集群上安装 Spark

我不是系统管理员,但我可能需要执行一些管理任务,因此需要一些帮助。我们有一个(远程)Hadoop集群,人们通常在集群上运行map-reduce作业。我打算在集群上安装ApacheSpark,以便集群中的所有机器都可以使用。这应该是可能的,我已经阅读了http://spark.apache.org/docs/latest/spark-standalone.html“只需将Spark作为单独的服务在同一台机器上启动,您就可以将Spark与现有的Hadoop集群一起运行……”如果您以前做过,请给我详细的步骤,以便创建Spark集群。 最佳答案

hadoop - 在 spark SQL 中加载数据时获取 Hive 表中的空值

将数据从文件加载到配置单元表时,将插入空值。sqlCon.sql("createtablehive_6(idInt,nameString)partitionedby(dateString)rowformatdelimitedfieldsterminatedby','");sqlCon.sql("loaddatalocalinpath'/home/cloudera/file.txt'intotablehive_6partition(date='19July')");sqlCon.sql("select*fromhive_6").show()+----+----+------+|id|na

python - 验证字段值的有效方法 Spark

在将数据保存到hdfs之前,我需要验证数据框中的某些列。我想知道在pyspark1.5.2/python2.7中是否有一种优雅有效的方法来做到这一点例如,假设我有以下数据+-----+---+|a|b|+-----+---+|"foo"|123|+-----+---+我想确保列a的每个值不超过3个字符和列b是.我目前的想法是编写一个执行简单if/else的udf,并返回某个值,然后根据这些结果决定是否使作业失败。但是,对于大量数据,我担心它会很慢或者至少是非常繁重的处理。是否已经有一种完善的方法可以在spark中执行此操作?或者是否有任何流行的策略来做到这一点?我自己找不到关于这个主题

hadoop - 在 Spark 中使用哪个设置来指定 `Output` 的压缩?

因此,Spark有文件spark-defaults.xml用于指定哪些设置,包括要使用哪个压缩编解码器以及在哪个阶段(RDD、Shuffle)。大多数设置都可以在应用程序级别进行设置。编辑:conf=SparkConf()conf.set("spark.hadoop.mapred.output.compress","true")conf.set("spark.hadoop.mapred.output.compression.codec","org.apache.hadoop.io.compress.snappy")如何使用spark-defaults.xml告诉Spark使用特定的编解

scala - 将 hdfs 文件加载到 spark 上下文中

我是spark/scala的新手,需要从hdfs加载一个文件到spark。我在hdfs(/newhdfs/abc.txt)中有一个文件,我可以使用hdfsdfs-cat/newhdfs/abc.txt/查看我的文件内容p>我按照以下顺序将文件加载到spark上下文中spark-shell#Itenteredintoscalaconsolewindowscala>importorg.apache.spark._;//Line1scala>valconf=newSparkConf().setMaster("local[*]");scala>valsc=newSparkContext(con

hadoop - 并非所有 Spark Worker 都启动 : SPARK_WORKER_INSTANCES

我的spark-defaults.conf配置是这样的。我的节点有32GbRAM。8个核心。我计划使用16gb和4个worker,每个worker使用1个核心。SPARK_WORKER_MEMORY=16gSPARK_PUBLIC_DNS=vodip-dt-a4d.ula.comcast.netSPARK_WORKER_CORES=4SPARK_WORKER_INSTANCES=4SPARK_DAEMON_MEMORY=1g当我尝试启动master并像这样工作时,只有1个worker正在启动,而我期望有4个worker。start-master.sh--properties-file/