草庐IT

sparking

全部标签

hadoop - 无法使用 spark API 写入 MySQL - pickle.PicklingError : Could not serialize object

我正在尝试使用分区任务中的sparkjdbc()函数写入MySQL表,该分区任务是通过执行foreachPartitions(test)调用的。然而,我收到了一个选择错误。我不确定问题是否是由于spark已经在任务内部并且spark将write.jdbc()作为任务本身运行。根据我的理解,这是不允许的?我可以从我的test()函数返回列表“行”并在main中调用write.jdbc()但我宁愿不必将数据结构收集回主控。代码和错误:代码:deftest(partition_iter):row=[]row.append({'col1':26,'col2':12,'col2':153.493

hadoop - 使用 s3 的 spark 加载 json 时 FS 错误

我正在尝试使用spark和magellanlibrary加载geojson文件我的加载代码是:valpolygons=spark.read.format("magellan").option("type","geojson").load(inJson)inJson是我在s3上的json的路径:s3n://bucket-name/geojsons/file.json堆栈跟踪错误:0.3instage0.0(TID3,ip-172-31-19-102.eu-west-1.compute.internal,executor1):java.lang.IllegalArgumentExcepti

hadoop - 在没有任何 hadoop 依赖项的情况下构建 spark

我找到了一些对-Phadoop-provided标志的引用,用于在没有hadoop库的情况下构建spark,但找不到如何使用它的好例子。我如何从源代码构建spark并确保它不会添加任何它自己的hadoop依赖项。看起来当我构建最新的spark时,它包含了一堆2.8.xhadoop的东西,这与我的集群hadoop版本冲突。 最佳答案 Spark具有“使用用户提供的Hadoop预构建”的下载选项,因此以spark-VERSION-bin-without-hadoop.tgz命名如果你真的想构建它,那么从项目根目录运行它./build/m

hadoop - Spark YARN 应用程序中 Kerberos 中的 HDFS 写入问题

我有一个spark应用程序,它从Kafka读取数据并将数据写入HDFS。我的应用程序在几分钟内工作正常,但一段时间后它开始出现以下错误并失败。2018-01-0217:59:20LeaseRenewer:username@nameservicename[WARN]UserGroupInformation-PriviledgedActionExceptionas:username@REALM_NAME(auth:KERBEROS)cause:javax.security.sasl.SaslException:GSSinitiatefailed[CausedbyGSSException:N

hadoop - Spark - 如何在 HDFS 中重组目录

我有一个结构如下的目录:temp/Tweets/userId123/Tweets.csvtemp/Tweets/userId456/Tweets.csvtemp/Tweets/userId789/Tweets.csvtemp/Mentions/userId123/Mentions.csvtemp/Mentions/userId456/Mentions.csvtemp/Mentions/userId789/Mentions.csv...数据由数据实体的类型构成,我想由用户对其进行重组,如下所示:final/userId123/Tweets.csvfinal/userId123/Menti

hadoop - Apache Spark 在 Hadoop YARN 上工作的问题

我对大数据非常陌生,尤其是ApacheSpark/HadoopYARN。我将Hadoop单节点安装到我的虚拟机中以进行一些尝试,我也添加了Spark。我认为环境已经安装好,因为我可以访问:http://172.30.10.64:50070->Hadoop概述http://172.30.10.64:8080->星火概述然后我创建了一个pythonic文件来计算单词数:frompysparkimportSparkConf,SparkContextfromoperatorimportaddimportsys##ConstantsAPP_NAME="HelloWorldofBigData"##

hadoop - Spark : Execute python script with Spark based on Hadoop Multinode

我正在寻找基于HadoopMultinodes的Spark使用,我对我的集群模式pythonic脚本有疑问。我的配置:我进入了我的Hadoop集群:1个名称节点(主节点)2个数据节点(从节点)所以我想在Python中执行我的脚本以使用这个集群。我知道Spark可以用作独立模式,但我想使用我的节点。我的python脚本:这是一个非常简单的脚本,可以用来计算文本中的字数。importsysfrompysparkimportSparkContextsc=SparkContext()lines=sc.textFile(sys.argv[1])words=lines.flatMap(lambda

java - 在 Java 的 Spark Dataframe 中将 CSV 值转换为 Vector

我有一个包含两列的CSV文件id,featuresid列是一个字符串,features列是以逗号分隔的机器学习算法的特征值列表,即。“[1,4,5]”我基本上只需要在值上调用Vectors.parse()来获取vector,但我不想先转换为RDD。我想将其放入SparkDataframe,其中features列是org.apache.spark.mllib.linalg.Vector我正在使用databrickscsvapi将其读入数据框,并尝试将特征列转换为vector。有人知道如何在Java中执行此操作吗? 最佳答案 我找到了一

apache-spark - Spark 2.0 : spark-infotheoretic-feature-selection java. lang.NoSuchMethodError : breeze. linalg.DenseMatrix

我正在尝试使用Spark的InfoGain第三方(https://github.com/sramirez/spark-infotheoretic-feature-selection)包的MRMR功能。但是我的集群是2.0,我得到了这个异常。即使我将所有必需的Jar文件添加到spark类路径。但它仍然不起作用。虽然它在本地机器上正常工作,但在集群上却不行。异常(exception):18/03/2901:16:43WARNTaskSetManager:Losttask3.0instage14.0(TID47,EUREDWORKER3):java.lang.NoSuchMethodErro

apache-spark - Spark 独立设置中的内存使用情况

我有一个spark设置,其中有一个worker有6个核心。现在我向工作人员广播一个对象x。我有三个问题-对于mapreduce作业,将生成我的objx的6个副本还是x的单个副本将由所有核心共享?x的生命周期是什么,即;它什么时候会被摧毁。我问是因为这个对象x占用了大量内存。如果我从文件中读取对象,是否有其他方法可以在所有6个内核之间共享该对象。 最佳答案 广播数据在每个执行器(java进程)中传输和存储一次,而不是每个内核一次。换句话说,如果您只有一个节点,并且将spark.executor.instances设置为2,并将spar