草庐IT

csv - 使用spark访问放置在hdfs中的csv文件

我已经使用hadoop-put命令将一个csv文件放入hdfs文件系统。我现在需要使用pysparkcsv访问csv文件.它的格式类似于`plaintext_rdd=sc.textFile('hdfs://x.x.x.x/blah.csv')`我是hdfs的新手。如何找到要放在hdfs://x.x.x.x中的地址?这是我输入时的输出hduser@remus:~$hdfsdfs-ls/inputFound1items-rw-r--r--1hdusersupergroup1582015-06-1214:13/input/test.csv感谢任何帮助。 最佳答案

python - PySpark 读取不存在文件时的错误处理

我有大量目录和文件可供读取。然而,其中一些可能实际上并不存在,这不是问题-我会简单地忽略任何错误-使用try方法。有什么方法可以在PySpark中允许这样做。这是返回的错误信息:py4j.protocol.Py4JJavaError:Anerroroccurredwhilecallingz:org.apache.spark.api.python.PythonRDD.collectAndServe.:org.apache.hadoop.mapred.InvalidInputException:Inputpathdoesnotexist:file:我正在构建一系列文件以查看以下内容:scI

hadoop - 如何在资源有限的笔记本电脑上安装 pyspark 和 spark 以供学习?

我有一台配备6GBRAM的Windows7笔记本电脑。仅出于学习目的,在此笔记本电脑上安装pyspark和spark的RAM/资源效率最高的方法是什么。我不想处理实际的大数据,但小数据集是理想的,因为这通常只是为了学习pyspark和spark。我更喜欢最新版本的Spark。仅供引用:我没有安装hadoop。谢谢 最佳答案 你基本上有三个选择:从源代码构建一切安装Virtualbox并使用ClouderaQuickstart等预构建的VM安装Docker并找到合适的容器当您选择从源代码构建时,让一切都启动并运行可能会很痛苦。你必须安

python - PySpark - Hive 上下文不返回结果但 SQL 上下文返回类似查询

当我在PySpark中运行HiveContext和SQLContext进行比较查询时,我注意到性能存在巨大差异版本/配置Spark1.3.1(也尝试过Spark1.5.1)Hadoop2.6(在CDH5.4.0上)pyspark--masteryarn--num-executors5--executor-memory10g--driver-memory4g--driver-cores4表格信息database.table有超过2k个分区database.table在field1上分区(在where子句中使用)HIVE上下文实现frompyspark.sqlimportSQLContex

python - 从发送到 spark-submit 的外部 __main__ 文件修改 SparkContext

我正在尝试打包python依赖项,以便使用spark-submit发送到hadoop集群,我希望尽可能以DRYest方式执行此操作。我希望我的my_spark_app.py看起来像这样:frompysparkimportSparkContext,SparkConfconf=SparkConf().setAppName('MyApp').setMaster('yarn-client')sc=SparkContext(conf=conf)sc.addPyFile('/path/to/dependencies.py')fromdependenciesimportDependencyManag

python - 来自 Hive 查询的持久 PySpark Dataframe

我正在从Hive表中获取一些数据:df=sqlContext.sql('selectshubiru,datefromthebigtablebtwherebt.num>10')df.show()#herethequeryisprocessedandtheresultsshown而且一切正常。现在我想对df进行操作,但是每次我对df进行操作时,它都会再次运行针对Hive的查询:importpyspark.sql.functionsasfuncfromdatetimeimportdatetimefrompyspark.sql.typesimportTimestampTypedt_udt=fu

hadoop - 检查点在 Apache Spark 上有什么作用?

检查点对ApacheSpark有什么作用,它对RAM或CPU有何影响? 最佳答案 来自ApacheStreamingDocumentation-希望对您有所帮助:流式应用程序必须24/7全天候运行,因此必须能够应对与应用程序逻辑无关的故障(例如,系统故障、JVM崩溃等)。为了使这成为可能,SparkStreaming需要将足够的信息检查点到容错存储系统,以便它可以从故障中恢复。有两种类型的数据被检查点。元数据检查点-定义信息的保存将计算流式传输到HDFS等容错存储。这是用于从运行驱动程序的节点的故障中恢复流应用程序(稍后详细讨论)。

hadoop - 如何关联 RDD 中数组的所有组合?

我有一个来自model.productFeatures()的RDD,它以(id,array("d",(...)))的形式返回一个RDD>。例如:(1,array("d",(0,1,2)))(2,array("d",(4,3,2)))(3,array("d",(5,3,0)))...我想计算每个数组之间的成对相关性,然后为每个id返回另一个数组具有最高相关性的id。 最佳答案 您需要做的第一件事是获取所有元素对,除了它们相同的“对角线”。>>>rdd.cartesian(rdd).filter(lambda(x,y):x!=y).co

hadoop - 文本文件可以直接从 Spark 输出到本地文件系统吗?

使用RDD,我可以输出rdd.saveAsTextFile('directory')将文件保存在hdfs://directory中。文本文件可以直接保存到本地文件系统上的目录(即directory)吗? 最佳答案 当然你可以...因为saveAsTextFile('directory')将保存与你的分区程序一样多的文件,你首先需要在复制到本地之前合并文件(除非你希望将每个文件复制到本地).因此先调用FileUtil.copyMerge(sourceFileSystem,newPath(sourceFullPath),destFile

apache-spark - 如何在具有不同内存和核心数量的集群上调整 spark 作业

我正在开发一个spark项目,我正在使用具有以下配置的3个节点的hadoop集群:8coresand16goofRam(Namenode,ApplicationMaster,nodemanagerandsparkmasterandworker).4coresand8goofRam(datanode,nodemanagerandworker)Ram的4cores和4go(datanode、nodemanager和worker)所以我使用以下配置:pyspark--masteryarn-client--driver-memory3g--executor-memory1g--num-exec