草庐IT

Mongo-Spark

全部标签

apache-spark - 如何在具有不同内存和核心数量的集群上调整 spark 作业

我正在开发一个spark项目,我正在使用具有以下配置的3个节点的hadoop集群:8coresand16goofRam(Namenode,ApplicationMaster,nodemanagerandsparkmasterandworker).4coresand8goofRam(datanode,nodemanagerandworker)Ram的4cores和4go(datanode、nodemanager和worker)所以我使用以下配置:pyspark--masteryarn-client--driver-memory3g--executor-memory1g--num-exec

apache-spark - spark.executor.extraJavaOptions 在 spark-submit 中被忽略

我是一名新手,正在尝试介绍本地Spark工作。这是我尝试执行的命令,但我收到一条警告,指出我的执行程序选项被忽略,因为它们是非spark配置属性。错误:Warning:Ignoringnon-sparkconfigproperty:“spark.executor.extraJavaOptions=javaagent:statsd-jvm-profiler-2.1.0-jar-with-dependencies.jar=server=localhost,port=8086,reporter=InfluxDBReporter,database=profiler,username=profi

apache-spark - 执行 hbase 扫描时出现异常

我正在尝试hbasesparkdistributedscanexample.我的简单代码如下所示:publicclassDistributedHBaseScanToRddDemo{publicstaticvoidmain(String[]args){JavaSparkContextjsc=getJavaSparkContext("hbasetable1");ConfigurationhbaseConf=getHbaseConf(0,"","");JavaHBaseContextjavaHbaseContext=newJavaHBaseContext(jsc,hbaseConf);Sca

apache-spark - Spark 根据字母分区写入 Parquet

我对这个话题做了很多研究。我有一个3TB大小的数据集。以下是该表的数据架构:root|--user:string(nullable=true)|--attributes:array(nullable=true)||--element:string(containsNull=true)每天,我都会得到一份我需要其属性的用户列表。我想知道我是否可以将上述模式写入包含前2个用户字母的Parquet文件。例如,Omkar|[a,b,c,d,e]Mac|[a,b,c,d,e]Zee|[a,b,c,d,e]Kim|[a,b,c,d,e]Kelly|[a,b,c,d,e]在上面的数据集上,我可以做这

scala - 如何从 spark-shell 从 S3 文件加载 RDD?

我在S3中有一个文本文件,我想使用spark-shell将其加载到RDD中。我已经下载Spark2.3.0forHadoop.天真地,我希望我只需要设置hadoop设置就可以了。valinFile="s3a://some/path"valaccessKey="some-access-key"valsecretKey="some-secret-key"sc.hadoopConfiguration.set("fs.s3a.access.key",accessKey)sc.hadoopConfiguration.set("fs.s3a.secret.key",secretKey)sc.tex

python - Spark 缓存和取消持久化订单

我找到了类似的主题:UnderstandingSpark'scaching但这仍然不是我的问题。让我们考虑以下代码片段:选项A:rdd1=sc.textFile()rdd1.cache()rdd2=rdd1.map().partionBy()rdd3=rdd1.reduceBy().map()rdd2.cache()rdd1.unpersist()data=rdd2.collect()选项B:rdd1=sc.textFile()rdd1.cache()rdd2=rdd1.map().partionBy()rdd3=rdd1.reduceBy().map()rdd2.cache()dat

scala - 在 Spark (HDFS) 中写入 CSV 文件时选择哪个选项?

我必须比较CSV文件,然后我必须删除所有重复的行。所以,我的情况就像我有一个文件夹,我必须将每个过滤结果放在该文件夹中,当一些新文件出现时,我必须将文件夹中的现有文件与新文件进行比较,最后,我必须把将结果返回到同一文件夹。eg:/data/ingestion/file1.csva1b1c1a2b2c2a3b3c3/data/ingestion/file2.csva4b4c4a5b5c5a6b6c6newupcomingfile(upcoming_file.csv):a1b1c1a5b5c5a7b7c7现在我的方法是从/data/ingestion/*中存在的所有文件创建一个数据帧。然后

java - 使用 Cloudera 5.14 和 Spark2 : Livy can't find its own JAR files 配置 Livy

我是Cloudera的新手,正在尝试将工作负载从运行Ambari和Livy和Spark2.2.x的HDP服务器转移到具有类似设置的CDH5服务器。由于Livy不是Cloudera的组件,我使用的是他们网站上的0.5.0-incubating版本,在与YARN、Spark和HDFSmasters相同的服务器之一上运行它。长话短说,当我尝试提交给Livy时,我收到以下错误消息:Diagnostics:Filefile:/home/livy/livy-0.5.0-incubating-bin/rsc-jars/livy-rsc-0.5.0-incubating.jardoesnotexist

apache-spark - 使用 spark-xml 从 pyspark 数据框中选择嵌套列

我正在尝试从PysparkDataframe中选择嵌套的ArrayType。我只想从此数据框中选择项目列。我不知道我在这里做错了什么。XML:ABCXYZ305,RamCHowkPuneINClothingBrand:CKSize:L6208数据框架构。root|--_orderid:string(nullable=true)|--items:struct(nullable=true)||--item:array(nullable=true)|||--element:struct(containsNull=true)||||--notes:struct(nullable=true)||

Java Spark 禁用 Hadoop 发现

我目前正在运行一个使用Spark的Java应用程序。一切正常,除了SparkContext的初始化。此时,Spark尝试在我的系统上发现Hadoop,并抛出错误,因为我没有并且我不想安装Hadoop:2018-06-2010:00:27.496ERROR4432---[main]org.apache.hadoop.util.Shell:Failedtolocatethewinutilsbinaryinthehadoopbinarypathjava.io.IOException:Couldnotlocateexecutablenull\bin\winutils.exeintheHadoo