草庐IT

scala-tools

全部标签

scala - Apache-Spark 内部作业调度

我在Spark中发现了这个功能,它允许您在spark上下文中安排不同的任务。我想在一个程序中实现这个特性,在这个程序中我映射我的输入RDD(fromatextsource)到一个键值RDD[K,V]随后生成一个复合键值RDD[(K1,K2),V]和一个包含一些特定值的过滤RDD。进一步的管道涉及在RDD和join操作上从MLlib调用一些统计方法,然后将结果外部化到磁盘。我正在尝试了解spark的内部公平调度程序将如何处理这些操作。我尝试阅读作业调度文档,但对pools、users和tasks的概念感到更加困惑。pools到底是什么,它们是特定的'tasks'可以组合在一起还是它们是l

scala - Spark utf 8错误,非英文数据变成 `??????????`

我们数据中的一个字段是非英语语言(泰语)。我们可以将数据加载到HDFS中,运行时系统会正确显示非英文字段:hadoopfs-cat/datafile.txt但是,当我们使用Spark加载显示数据时,所有非英文数据都显示????????????????我们在运行Spark时添加了以下内容:System.setProperty("file.encoding","UTF-8")有没有人看过这个?在Spark中使用非英文数据需要做什么?我们在Ubuntu14.04上运行Spark1.3.0、Scala2.10.4。我们运行测试的命令是:valtextFile=sc.textFile(input

scala - 如何在 hadoop 上使用 Spark 启动 Jar 文件

我正在安装hadoop的GoogleCloudPlatform上做一个项目。我在scala中编写了一个程序,并使用sbt的汇编指令创建了一个可执行JAR现在我必须上传并在我的平台上运行它。我尝试使用命令spark-submit--class"Hi"provaciao.jar但即使它在sparkstandalone上本地工作,我也会收到错误消息。我用的是spark的1.1.0版本,hadoop的2.4版本这是我的错误日志marooned91_gmail_com@hadoop-m-on8g:/home/hadoop/spark-install/bin$spark-submit--class

scala - 我想将 Hive 中所有现有的 UDTF 转换为 Scala 函数并从 Spark SQL 使用它

任何人都可以给我一个用scala编写的返回多行并将其用作SparkSQL中的UDF的示例UDTF(例如;explode)吗?表:表1+------+----------+----------+|userId|someString|varA|+------+----------+----------+|1|example1|[0,2,5]||2|example2|[1,20,5]|+------+----------+----------+我想创建以下Scala代码:defexampleUDTF(var:Seq[Int])={//codetoexplodevarAfield???}sql

scala - Spark 上下文抛出 'error: identifier expected but ' [' found.'

我正在读一本书,上面说我应该能够输入sc.[\t]并得到响应。我看到的是...scala>sc.[\t]:1:error:identifierexpectedbut'['found.sc.[\t]^:1:error:identifierexpectedbut']'found.sc.[\t]这是spark1.6.1连接到hadoop2.7.2sc命令似乎有效...scala>scres1:org.apache.spark.SparkContext=org.apache.spark.SparkContext@3cead673附言我一生中从未使用过Scala。 最

hadoop:错误 org.apache.pig.tools.grunt.Grunt - 错误 1000:解析期间出错。遭遇

我在我的gruntshell中使用它:customers=LOAD'hdfs://localhost:9000/pig_data_customers'USINGPigStorage(',')as(id:int,name:chararray,age:int,address:chararray,salary:double);数据在这里:[root@localhostbin]#hdfsdfs-cathdfs://localhost:9000/pig_data_customers1,Ramesh,32,Ahmedabad,2000.002,Khilan,25,Delhi,1500.003,ka

scala - Spark DataFrame 并行性

下面是我使用ApacheSpark的用例1)我在HDFS上有大约2500个Parquet文件,文件大小因文件而异。2)我需要处理每个parquet文件并构建一个新的DataFrame并将一个新的DataFrame写入orc文件格式。3)我的Spark驱动程序是这样的。我正在迭代每个文件,处理单个Parquet文件,创建一个新的DataFrame并将一个新的DataFrame编写为ORC,下面是代码片段。valfs=FileSystem.get(newConfiguration())valparquetDFMap=fs.listStatus(newPath(inputFilePath))

scala - 使用 Oozie 将 Spark 转为 Hbase

我试图从Spark在Hbase中创建一个表并插入数据,从中读取数据。当我从命令行运行spark作业时它工作正常。但是,每次我尝试使用oozie运行它时,它都会抛出不同类型的异常。这是我的sparkhbase代码valsc=newSparkContext("local","Hbasespark")valtableName="Morbidity_Dummy2"valconf=HBaseConfiguration.create()//AddlocalHBaseconfconf.addResource(newPath("file:///opt/cloudera/....../hbase-sit

scala - 如何从 spark-shell 从 S3 文件加载 RDD?

我在S3中有一个文本文件,我想使用spark-shell将其加载到RDD中。我已经下载Spark2.3.0forHadoop.天真地,我希望我只需要设置hadoop设置就可以了。valinFile="s3a://some/path"valaccessKey="some-access-key"valsecretKey="some-secret-key"sc.hadoopConfiguration.set("fs.s3a.access.key",accessKey)sc.hadoopConfiguration.set("fs.s3a.secret.key",secretKey)sc.tex

scala - 在 Spark (HDFS) 中写入 CSV 文件时选择哪个选项?

我必须比较CSV文件,然后我必须删除所有重复的行。所以,我的情况就像我有一个文件夹,我必须将每个过滤结果放在该文件夹中,当一些新文件出现时,我必须将文件夹中的现有文件与新文件进行比较,最后,我必须把将结果返回到同一文件夹。eg:/data/ingestion/file1.csva1b1c1a2b2c2a3b3c3/data/ingestion/file2.csva4b4c4a5b5c5a6b6c6newupcomingfile(upcoming_file.csv):a1b1c1a5b5c5a7b7c7现在我的方法是从/data/ingestion/*中存在的所有文件创建一个数据帧。然后