草庐IT

scala-cats

全部标签

Scala安装

Scala安装使用windows安装,配置环境变量以下载Scala2.11为例,操作在Windows中安装Scala。官网下载scala2.11:AllAvailableVersions|TheScalaProgrammingLanguage下载好后安装。双击msi包安装,记住安装的路径。配置环境变量(和配置jdk一样)新建SCALA_HOME注意:这里建议将Scala安装到纯英文没有空格和特殊符号的路径下。避免后期使用Scala版本出现问题。上个步骤完成后,编辑Path变量,在后面追加如下:%SCALA_HOME%\bin打开cmd,输入:scala -version 看是否显示版本号,确定

Scala知识点——App类

我们在代码中一般程序都是是通过main方法进入。但是在scala中提供了一个App类,通过继承可以实现不用显式的调用main方法就能运行。App类中实现了main方法: 

scala - 如何将 Iterable 转换为 RDD

更具体地说,我如何将scala.Iterable转换为org.apache.spark.rdd.RDD?我有一个(String,Iterable[(String,Integer)])的RDD我希望将其转换为(String,RDD[String,Integer])的RDD,以便我可以将reduceByKey函数应用于内部RDD.例如我有一个RDD,其中键是人名的2个字母前缀,值是人名和他们在事件中花费的时间对的列表我的RDD是:("To",List(("Tom",50),("Tod","30"),("Tom",70),("Tod","25"),("Tod",15))("Ja",List(

scala - 使用 Spark Streaming 读取 fileStream

我在HDFS上有一个目录,其中每10分钟复制一个文件(现有文件被覆盖)。我想使用Spark流(1.6.0)读取文件的内容,并将其用作引用数据以将其加入其他流。我将“记住窗口”spark.streaming.fileStream.minRememberDuration设置为“600s”并设置newFilesOnly到false,因为当我启动应用程序时,我不想从已经存在的HDFS中获取初始数据。valssc=newStreamingContext(sparkConf,Seconds(2))defdefaultFilter(path:Path):Boolean=!path.getName()

scala - Spark - 按输出 (RDD) 从组中删除 CompactBuffer

问题陈述RDD分组后需要格式化Spark输出(移除CompactBuffer)输入Header1^Header2A^4BA^11AB^7AC^6DFC^7DS期望的输出(A,(4B,11A))(B,(7A))(C,(6DF,7DS))我尝试了什么valrecords=sc.textFIle("/user/chronicles/test.txt").map(x=>{valy=x.split("\\^",-1)(y(0).trim(),y(1).trim())}).groupBy(x=>x._1)records.foreach(println)输出(A,CompactBuffer((4B,

scala - Spark Streaming textFileStream 复制

我正在尝试监视HDFS中的存储库以读取和处理复制到它的文件中的数据(将文件从本地系统复制到HDFS我使用hdfsdfs-put),有时它会产生问题:SparkStreaming:java.io.FileNotFoundException:Filedoesnotexist:.COPYING所以我阅读了论坛中的问题和此处的问题SparkStreaming:java.io.FileNotFoundException:Filedoesnotexist:._COPYING_根据我读到的内容,问题与Spark流式传输在文件完成复制到HDFS和Github之前读取文件有关:https://githu

scala - 无法解决 Spark 作业中的符号拆分

我在我的IntelliJIDE上运行一个spark应用程序作为Maven项目,我正在尝试创建一个rowRDD并将它们转换为数据帧并将其存储在hdfs中。SPARKVERSION:1.5.2SCALAVERSION:2.10.4我的代码:valrowRDD=dataframename.map(_.split("\t")).map(p=>Row(p(0),p(1),p(2),p(3)))它报告值拆分不是我的类包的成员并且报告应用程序不采用任何参数。存在一些依赖性问题,我需要这方面的帮助。注意:我已经完成了rowRDD的模式定义感谢支持 最佳答案

scala - Spark-scala 如何使用 HDFS 目录分区

为了减少处理时间,我按日期对数据进行分区,以便我只使用所需的日期数据(不是完整的表格)。所以现在在HDFS中,我的表格存储如下src_tbl//maindirtrg_tbl2016-01-01//subdir2015-12-302016-01-022015-12-312016-01-032016-01-012016-01-03现在我想从src_tbl中选择min(date)这将是2016-01-01从trg_tbl我想使用>=2016-01-01(src_tblmin(date))目录中的数据2016-01-01和2016-01-03数据`如何使用Spark-scala从hdfs选择所

scala - 限制 yarn 容器一次只能执行一个任务

我正在使用hadoop集群运行Spark程序,它使用yarn调度程序来运行任务。但是,我注意到一个奇怪的行为。yarn有时会杀死提示内存不足错误的任务,而如果我轮流执行任务,即执行与容器/执行程序相同数量的任务,让它们完成,然后执行下一组任务,它运行良好,这意味着任务使用的内存不会超过容器中允许的内存。所以,我怀疑yarn试图在容器中并行运行多个任务,这就是容器内存不足的原因。有没有办法限制这种行为并告诉yarn在容器中一次只运行一个任务。 最佳答案 一般来说,Spark请求的每个YARN容器直接对应一个“执行器”,即使YARN可能

scala - Spark 中的 Hadoop 配置

为了调试,我需要在我的Spark作业中获取当前的Hadooporg.apache.hadoop.conf.Configuration。具体来说,我需要使用org.apache.hadoop.fs.Path#getFileSystem(conf:Configuration)方法获取org.apache.hadoop.fs.FileSystem路径给定一个org.apache.spark.SparkContext,有没有办法获取Configuration? 最佳答案 您可以按照下面的代码设置配置sc.hadoopConfiguratio