草庐IT

scala-compiler

全部标签

scala - Intellij Idea - 运行 Spark 应用程序时禁用信息消息

在运行使用ApacheSpark和Hbase/Hadoop库的应用程序时,我收到了很多消息。例如:0[main]DEBUGorg.apache.hadoop.metrics2.lib.MutableMetricsFactory-fieldorg.apache.hadoop.metrics2.lib.MutableRateorg.apache.hadoop.security.UserGroupInformation$UgiMetrics.loginSuccesswithannotation@org.apache.hadoop.metrics2.annotation.Metric(abou

scala - 从 scala 中的 map((tuple),(tuple)) 中读取元组的各个元素

reducebykey生成的输出是一个ShuffledRDD,key-value都是多个字段的数组。我需要提取所有字段并写入配置单元表。下面是我正在尝试的代码:sqlContext.sql(s"selectSUBS_CIRCLE_ID,SUBS_MSISDN,EVENT_START_DT,RMNG_NW_OP_KEY,ACCESS_TYPEFROMFACT.FCT_MEDIATED_USAGE_DATA")valUSAGE_DATA_Reduce=USAGE_DATA.map{USAGE_DATA=>((USAGE_DATA.getShort(0),USAGE_DATA.getStri

scala - 使用正则表达式时 Spark S3 访问被拒绝

我想知道为什么尝试使用正则表达式从S3使用Spark读取数据时会有所不同?我在“测试”桶中有一些文件:/test/logs/2016-07-01/a.gz/test/logs/2016-07-02/a.gz/test/logs/2016-07-03/a.gz这两部作品:vallogRDD=sqlContext.read.json("s3a://test/logs/2016-07-01/*.gz")orvallogRDD=sqlContext.read.json("s3n://test/logs/2016-07-01/*.gz")但是当我这样做的时候:vallogRDD=sqlConte

amazon-web-services - 使用 Scala 读取 .aws/credentials 文件以获取来自 spark 的 hadoop conf 设置

我如何才能读取位于.aws目录下的credentials文件中的不同aws配置文件?只想让我的应用程序读取访问key和secret,如下所示,但不确定如何将这一点指向凭证文件。objectS3KeyStoreextendsSerializable{privatevalkeyMap=Map(String,S3Key)defload(key:String)(implicitsc:SparkContext)=keyMap.get(key)match{caseSome(k)=>valhc=sc.hadoopConfigurationhc.set("fs.s3a.awsAccessKeyId",

scala 连接 hbase 主机失败

我写的Scala代码如下:44valconfig:Configuration=HBaseConfiguration.create()45config.set("hbase.zookeeper.property.clientPort",zooKeeperClientPort)46config.set("hbase.zookeeper.quorum",zooKeeperQuorum)47config.set("zookeeper.znode.parent",zooKeeperZNodeParent)48config.set("hbase.master",hbaseMaster)49conf

scala - Impala 正在将时间转换为 GMT 如何避免这种情况

当我查询它通过impala时间以GMT格式显示。不仅我创建的每个时间戳字段的列都转换为GMT格式。如何让它按原样显示时间?或者如何将其转换为est?请帮助进行sql查询或spark/scala代码,我试过这个HowtoconvertaDateStringfromUTCtoSpecificTimeZoneinHIVE?它对我有帮助。 最佳答案 将时间转换为UTC+00:00的不是Impala,而是Hive,但只有在将时间戳保存到Parquet中时才会这样做。这是Hive中的错误:HIVE-12767.当从Parquet文件中读取时间戳

scala - 'new HiveContext' 需要 X11 显示? com.trend.iwss.jscan?

Spark1.6.2(yarn大师)包名:com.example.spark.Main基本的SparkSQL代码valconf=newSparkConf()conf.setAppName("SparkSQLw/Hive")valsc=newSparkContext(conf)valhiveContext=newHiveContext(sc)importhiveContext.implicits._//valrdd=valdf=rdd.toDF()df.write.saveAsTable("example")还有堆栈跟踪...NoX11DISPLAYvariablewasset,butt

scala - Scalding:解析带 header 的逗号分隔数据

我有以下格式的数据:"header1","header2","header3",..."value11","value12","value13",..."value21","value22","value23",.......在Scalding中解析它的最佳方法是什么?我总共有50多个专栏,但我只对其中的一些感兴趣。我尝试使用Csv("file")导入它,但这不起作用。想到的唯一解决方案是使用TextLine手动解析它并忽略偏移量==0的行。但我相信一定有更好的解决方案。 最佳答案 最后我通过如下手动解析每一行解决了它:deftip

scala - 如何衡量一个scala烫伤程序的运行时间?

我有一个简单的scalding程序来转换我在本地模式下使用com.twitter.scalding.Tool执行的一些数据。valstart=System.nanoTimevalinputPaths=args("input").split(",").toListvalpipe=Tsv(inputPaths(0))//standardpipeoperationsonmydatalike.filter('myField),etc..write(Tsv(args("output")))println("runningtime:"+(System.nanoTime-start)/1e6+"ms

scala - Spark-Scala HBase 表创建失败(MetaException(消息 :file:/user/hive/warehouse/src is not a directory or unable to create one)

我的VM中运行着hortonworks沙盒。我已经完成了所有的hive-site.xml配置并放置在Spark/conf文件中。我可以使用PySpark访问HBase并创建/更新表,但是当我在Scala中执行相同的实现时,会出现以下错误:FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.DDLTask.MetaException(message:file:/user/hive/warehouse/srcisnotadirectoryorunabletocreateone)我也更改了对“hive/war