草庐IT

spark_libs

全部标签

apache-spark - 用于 ETL 的 Impala shell 或 Spark?

我最近开始研究Hadoop环境。我需要做一些基本的ETL来填充几个表。目前,我正在使用sqoop将数据导入Hadoop,并使用Impalashell命令编写用于转换的SQL查询。但最近我经常听说Spark。在我的情况下,用Spark而不是Impalashell编写ETL会有什么优势吗?谢谢S 最佳答案 过去,许多人使用A)SQL脚本(如Impala)和UNIX脚本,或者使用B)ETL工具进行ETL。但是,问题是1)更大规模imo和2)技术标准化。既然都在用Spark,那为什么不在Spark上做标准化呢?我经历过这个周期,使用Spar

scala - 从 spark 中列出/检索 HDFS 分区作为 Map(String,List(String))

我想知道是否有某种方法可以利用spark.hdfs文件夹结构中已经存在的元数据信息。例如,我正在使用以下代码将数据写入hdfs,valcolumns=Seq("country","state")dataframe1.write.partitionBy(columns:_*).mode("overwrite").save(path)这会生成类似的目录结构,path/country=xyz/state=1path/country=xyz/state=2path/country=xyz/state=3path/country=abc/state=4我想知道的是使用spark,有没有办法将所有

apache-spark - Spark with Hive 是否可以将项目阶段推送到 HiveTableScan?

我正在使用SparkSQL查询Hive中以ORC格式存储的数据。当我对提供给spark.sql(query)的查询运行解释命令时,我看到以下查询计划:==PhysicalPlan==*Project[col1,col2,col3]+-*Filter(....)+-HiveTableScan[col1,col2,col3,...col50]据我所知,从Hive查询所有50列,然后才在Spark中进行过滤,后记仅选择所需的实际列。是否可以将所需的列直接下推到Hive,以便它们不会一直加载到Spark? 最佳答案 检查以下属性是否设置为默

scala - 在scala spark中将文件读入数组列表

我对spark和scala完全陌生。我想将文件读入数组列表。这就是它在java中的实现方式。ListsourceRecords;sourceRecords=newArrayList();BufferedReaderSW;SW=newBufferedReader(newFileReader(srcpath[0].toString()));Stringsrcline;while((srcline=SW.readLine())!=null){sourceRecords.add(srcline.toString());}spark中的scala怎么实现 最佳答案

scala - SPARK_EXECUTOR_INSTANCES 在 SPARK SHELL、YARN 客户端模式下不工作

我是spark的新手。正在尝试运行sparkonyarninyarn-clientmode.SPARKVERSION=1.0.2HADOOPVERSION=2.2.0yarn集群有3个事件节点。spark-env.sh中设置的属性SPARK_EXECUTOR_MEMORY=1GSPARK_EXECUTOR_INSTANCES=3SPARK_EXECUTOR_CORES=1SPARK_DRIVER_MEMORY=2GCommandused:/bin/spark-shell--masteryarn-client但是在登录spark-shell之后,它只注册了1个执行器,并为其分配了一些默认

hadoop - 使用 Spark 读取 S3 文件时出现 NullPointerException

我正在尝试使用Spark读取S3文件并出现以下异常:java.lang.NullPointerExceptionatorg.apache.hadoop.fs.s3native.NativeS3FileSystem.getFileStatus(NativeS3FileSystem.java:433)atorg.apache.hadoop.fs.Globber.getFileStatus(Globber.java:57)atorg.apache.hadoop.fs.Globber.glob(Globber.java:248)atorg.apache.hadoop.fs.FileSystem

hadoop - Spark : Out Of Memory Error when I save to HDFS

我在保存大数据到hdfs时出现OOMEvalaccumulableCollection=sc.accumulableCollection(ArrayBuffer[String]())valrdd=textfile.filter(row=>{if(row.endsWith(",")){accumulableCollection+=rowfalse}elseif(row.length{varvalid=truefor((k,v)我在spark-submit中使用这个:--num-executors2--driver-memory1G--executor-memory1G--executor

hadoop - Cassandra/HDFS 和 Spark 中的数据移动

在设计分布式存储和分析架构时,在与数据节点相同的机器上运行分析引擎是否是一种常见的使用模式?具体来说,直接在Cassandra/HDFS节点上运行Spark/Storm是否有意义?我知道自accordingtoHortonworks以来HDFS上的MapReduce具有这种使用模式,YARN最小化数据移动。我不知道这些其他系统是否也是如此。我想这是因为它们似乎可以相互插入,但我似乎无法在网上找到有关此的任何信息。我是这个主题的新手,因此非常感谢任何资源或答案。谢谢 最佳答案 是的,在Cassandra节点上运行Spark以最大限度地

hadoop - Apache Spark 与 Hadoop 方法有何不同?

每个人都说Spark正在使用内存,因此它比Hadoop快得多。我没有从Spark文档中理解真正的区别是什么。Spark将数据存储在内存中的什么位置,而Hadoop不存储数据?如果数据对内存来说太大了怎么办?在那种情况下,它与Hadoop有多相似? 最佳答案 Spark尝试将内容保存在内存中,而MapReduce不断将内容混入和移出磁盘。中间输出存储在主内存中,而hadoop将中间结果存储在辅助内存中。MapReduce插入了barrier,把东西写到磁盘再读回来需要很长时间。因此MapReduce可能是缓慢而费力的。消除此限制使Sp

hadoop - Spark 应用程序卡在 ACCEPTED 状态

我在一台Ubuntu14.04服务器上安装了Cloudera5.4的新实例,并希望运行其中一个spark应用程序。这是命令:sudo-uhdfsspark-submit--classorg.apache.spark.examples.SparkPi--deploy-modecluster--masteryarn/opt/cloudera/parcels/CDH-5.4.5-1.cdh5.4.5.p0.7/jars/spark-examples-1.3.0-cdh5.4.5-hadoop2.6.0-cdh5.4.5.jar这是输出:SLF4J:Classpathcontainsmulti