草庐IT

spark_libs

全部标签

hadoop - spark 独立模式下 50-60 gb 的数据

我正在尝试分析大约50-60GB的数据。我想过使用spark来做到这一点,但我无权访问集群中的多个节点。这种级别的处理可以使用spark独立模式完成吗?如果是,我想知道处理数据所需的估计时间。谢谢! 最佳答案 简短的回答:是的。Spark会将此文件分成许多较小的block。在您的情况下,一次只会执行几个block。这几个block应该适合内存(您需要使用配置来获得正确的结果)总而言之,您将能够做到,但如果您有更多的内存/核心,那么您可以并行处理更多事情,速度会更快。 关于hadoop-s

hadoop - 如何将 Amazon Glacier/S3 与 hadoop map reduce/spark 结合使用?

我需要使用Hadoop/EMR处理存储在AmazonS3和AmazonGlacier中的数据,并将输出数据保存在RDBMS中,例如。垂直我完全是大数据的菜鸟。我只看过一些关于mapreduce和sparx的在线类(class)和ppts。并创建了一些虚拟mapreduce代码用于学习目的。到目前为止,我只有一些命令可以让我将数据从S3导入AmazonEMR中的HDFC,并在处理后将它们存储在HDFS文件中。所以这是我的问题:在执行mapreduce之前是否真的必须先将数据从S3同步到HDFC,或者是否有直接使用S3的方法。`如何让hadoop访问AmazonGlacier数据`最后是如

scala - Spark DataFrame 并行性

下面是我使用ApacheSpark的用例1)我在HDFS上有大约2500个Parquet文件,文件大小因文件而异。2)我需要处理每个parquet文件并构建一个新的DataFrame并将一个新的DataFrame写入orc文件格式。3)我的Spark驱动程序是这样的。我正在迭代每个文件,处理单个Parquet文件,创建一个新的DataFrame并将一个新的DataFrame编写为ORC,下面是代码片段。valfs=FileSystem.get(newConfiguration())valparquetDFMap=fs.listStatus(newPath(inputFilePath))

scala - 使用 Oozie 将 Spark 转为 Hbase

我试图从Spark在Hbase中创建一个表并插入数据,从中读取数据。当我从命令行运行spark作业时它工作正常。但是,每次我尝试使用oozie运行它时,它都会抛出不同类型的异常。这是我的sparkhbase代码valsc=newSparkContext("local","Hbasespark")valtableName="Morbidity_Dummy2"valconf=HBaseConfiguration.create()//AddlocalHBaseconfconf.addResource(newPath("file:///opt/cloudera/....../hbase-sit

java - Spark 和 Java : Error ClassCastException

我完全按照这个例子https://github.com/rathboma/hadoop-framework-examples/tree/master/spark当我尝试运行时,我收到此消息:java.lang.ClassCastException:org.apache.spark.api.java.Optionalcannotbecasttocom.google.common.base.Optional我不知道如何修复它,因为我是使用Spark的新手。谢谢!!有什么建议吗? 最佳答案 这是因为您使用Spark1.x编译代码,但在Sp

hadoop - oozie 中的 org.apache.hadoop.mapred.lib.MultipleOutputs.addNamedOutput()

我正在尝试使用MultipleOutputs来更改reducer中的输出文件名。我正在使用oozie工作流来运行mapreduce作业。我找不到在oozie工作流中添加以下属性的方法-MultipleOutputs.addNamedOutput(job,"text",TextOutputFormat.class,Text.class,Text.class);因为它是ooziemapreduce操作,所以我没有驱动程序类放在上面的代码。 最佳答案 答案就在方法的源代码中。来自hadoopcore1.2.1jar/**/publicst

apache-spark - 如何在具有不同内存和核心数量的集群上调整 spark 作业

我正在开发一个spark项目,我正在使用具有以下配置的3个节点的hadoop集群:8coresand16goofRam(Namenode,ApplicationMaster,nodemanagerandsparkmasterandworker).4coresand8goofRam(datanode,nodemanagerandworker)Ram的4cores和4go(datanode、nodemanager和worker)所以我使用以下配置:pyspark--masteryarn-client--driver-memory3g--executor-memory1g--num-exec

apache-spark - spark.executor.extraJavaOptions 在 spark-submit 中被忽略

我是一名新手,正在尝试介绍本地Spark工作。这是我尝试执行的命令,但我收到一条警告,指出我的执行程序选项被忽略,因为它们是非spark配置属性。错误:Warning:Ignoringnon-sparkconfigproperty:“spark.executor.extraJavaOptions=javaagent:statsd-jvm-profiler-2.1.0-jar-with-dependencies.jar=server=localhost,port=8086,reporter=InfluxDBReporter,database=profiler,username=profi

apache-spark - 执行 hbase 扫描时出现异常

我正在尝试hbasesparkdistributedscanexample.我的简单代码如下所示:publicclassDistributedHBaseScanToRddDemo{publicstaticvoidmain(String[]args){JavaSparkContextjsc=getJavaSparkContext("hbasetable1");ConfigurationhbaseConf=getHbaseConf(0,"","");JavaHBaseContextjavaHbaseContext=newJavaHBaseContext(jsc,hbaseConf);Sca

apache-spark - Spark 根据字母分区写入 Parquet

我对这个话题做了很多研究。我有一个3TB大小的数据集。以下是该表的数据架构:root|--user:string(nullable=true)|--attributes:array(nullable=true)||--element:string(containsNull=true)每天,我都会得到一份我需要其属性的用户列表。我想知道我是否可以将上述模式写入包含前2个用户字母的Parquet文件。例如,Omkar|[a,b,c,d,e]Mac|[a,b,c,d,e]Zee|[a,b,c,d,e]Kim|[a,b,c,d,e]Kelly|[a,b,c,d,e]在上面的数据集上,我可以做这