草庐IT

scala-cats

全部标签

scala - spark-submit 无法访问本地文件系统

第一个count()方法调用中的非常简单的Scala代码文件。defmain(args:Array[String]){//createSparkcontextwithSparkconfigurationvalsc=newSparkContext(newSparkConf().setAppName("SparkFileCount"))valfileList=recursiveListFiles(newFile("C:/data")).filter(_.isFile).map(file=>file.getName())valfilesRDD=sc.parallelize(fileList)

scala - 通过 Scala IDE 使用 spark sql

我想试试sparksql,我一开始用的是bin/spark-shell插入此代码valsqlcontext=neworg.apache.spark.sql.SQLContext(sc)valdata=sc.textFile("hdfs://localhost:9000/cars.csv")valmapr=data.map(p=>p.split(','))valMyMatchRDD=mapr.map(p=>MyMatch(p(0).toString(),p(1).toString(),p(2).toString(),p(3).toString(),p(4).toString(),p(5)

scala - 列出文件 scala emr hdfs(缺少 csv 文件)

我试图通过以下方法列出emrhdfs上目录中的所有文件:valdirectory=newFile(directoryPath)valfileStatusListIterator:RemoteIterator[LocatedFileStatus]=FileUtils.fs.listFiles(newPath(directoryPath),true)while(fileStatusListIterator.hasNext){valfileStatus=fileStatusListIterator.nextif(fileStatus.isFile){log.info(s"IteratorFi

scala - 在 Scala 中从 HDFS 返回路径

我想返回文件的路径,我在其中提供了一个文件夹并在该文件夹中搜索“部分”文件。deflistDirectoriesGetPartFile(folderPath:String):org.apache.hadoop.fs.Path{valpath=newPath(folderPath)if(fileSystem.isDirectory(path)){valst=fileSystem.listStatus(path)for(i我想返回part-xxx文件。我怎样才能实现它? 最佳答案 这里有几个选项(按照符合Scala习惯用法的升序排列)。

scala - HDFS : java. io.FileNotFoundException : File does not exist: name. _COPYING

我正在使用Scala处理SparkStreaming。我需要使用此行从HDFS目录动态读取.csv文件:vallines=ssc.textFileStream("/user/root/")我使用以下命令行将文件放入HDFS:hdfsdfs-put./head40k.csv它适用于相对较小的文件。当我尝试使用更大的一个时,出现此错误:org.apache.hadoop.ipc.RemoteException(java.io.FileNotFoundException):Filedoesnotexist:/user/root/head800k.csv._COPYING我能理解为什么,但我不

scala - 如何在 Spark 中拆分?

我在一个RDD中有数据,数据如下:scala>c_datares31:org.apache.spark.rdd.RDD[String]=/home/t_csvMapPartitionsRDD[26]attextFileat:25scala>c_data.count()res29:Long=45212scala>c_data.take(2).foreach(println)age;job;marital;education;default;balance;housing;loan;contact;day;month;duration;campaign;pdays;previous;pou

scala - 星火笔记本 : How can I filter rows based on a column value where each column cell is an array of strings?

我有一个巨大的数据框,其中“类别”列具有企业的各种属性,即是否是餐厅、洗衣服务、迪斯科舞厅等。我需要的是能够.filter数据框,以便可以看到包含Restaurant的每一行。这里的问题是“类别”是一个字符串数组,其中一个单元格可能类似于:“餐馆、食物、夜生活”。有任何想法吗?(Scala[2.10.6]Spark[2.0.1]Hadoop[2.7.2])我已经尝试过SQL风格的查询,例如:valcountResult=sqlContext.sql("SELECTbusiness.neighborhood,business.state,business.stars,business.c

scala - 使用 Spark 在 HDFS 上压缩 Har 文件

我有大量的hadoop存档.har格式的数据。因为har不包含任何压缩,所以我试图进一步将其压缩并存储在HDFS中。我唯一可以毫无错误地开始工作的是:harFile.coalesce(1,"true").saveAsTextFile("hdfs://namenode/archive/GzipOutput",classOf[org.apache.hadoop.io.compress.GzipCodec])//`coalesce`becauseGzipisn'tsplittable.但是,这并没有给我正确的结果。生成了一个Gzipped文件,但输出无效(单行说明rdd类型等)任何帮助将不胜

scala - 定义一个 Scala 变量范围

我是这个领域的新手,正在尝试基本的东西,但陷入了一个简单的变量范围问题。在下面的代码中,我想在整个程序中使用“item”并打印它的值。但是,当我在foreach循环中使用“item”时,它会将其视为局部变量,并且它的值在循环外不可用。你能告诉我我错在哪里吗?importscala.collection.immutable._valset1=Set()valset2=Set("A","B","C")varitem:String=nullprintln(set1.isEmpty)println(set2.head)println(set2.tail)set2.foreach{item=>i

scala - 使用 Spark 和 Scala 将数据插入 Hive 表时出现问题

我是Spark的新手。这是我想做的事情。我创建了两个数据流;第一个从文本文件中读取数据并使用hivecontext将其注册为temptable。另一个不断从Kafka获取RDD,对于每个RDD,它创建数据流并将内容注册为temptable。最后,我将这两个临时表连接到一个键上以获得最终结果集。我想将该结果集插入配置单元表中。但我没有想法。试图遵循一些示例,但只在配置单元中创建一个包含一列的表,而且该表也不可读。你能告诉我如何在特定的数据库和配置单元表中插入结果吗?请注意,我可以使用show函数看到连接的结果,因此真正的挑战在于插入配置单元表。下面是我使用的代码。imports.....