草庐IT

scala - yarn 上的 Spark ;如何将指标发送到 Graphite 水槽?

我是spark的新手,我们正在运行sparkonyarn。我可以很好地运行我的测试应用程序。我正在尝试收集Graphite中的Spark指标。我知道要对metrics.properties文件进行哪些更改。但是我的spark应用程序将如何看到这个conf文件?/xxx/spark/spark-0.9.0-incubating-bin-hadoop2/bin/spark-classorg.apache.spark.deploy.yarn.Client--jar/xxx/spark/spark-0.9.0-incubating-bin-hadoop2/examples/target/sca

简单使用Spark、Scala完成对天气数据的指标统计

目录一、前言& 什么是Spark?& 什么是Scala二、数据准备(数据类型的转换)三、Spark部分1、使用Spark完成数据中的“风级”,“风向”、“天气情况”相关指标统计及筛选四、Scala部分1、使用Scala统计某月、全年的温差、平均气温以及最值等相关的指标五、遇到的问题:六、总结一、前言& 什么是Spark?Spark最初由美国加州伯克利大学(UCBerkeley)的AMP(Algorithms,MachinesandPeople)实验室于2009年开发,是基于内存计算的大数据并行计算框架,可用于构建大型的、低延迟的数据分析应用程序。Spark在诞生之初属于研究性项目,其诸多核心理

apache-spark - spark over kubernetes vs yarn/hadoop 生态系统

关闭。这个问题是opinion-based.它目前不接受答案。想要改进这个问题?更新问题,以便editingthispost可以用事实和引用来回答它.关闭4年前。Improvethisquestion我看到spark比kubernetes有很大的吸引力。它比在Hadoop上运行spark更好吗?这两种方法都以分布式方法运行。有人可以帮助我了解在kubernetes上运行spark与在Hadoop生态系统上运行之间的区别/比较吗?谢谢

hadoop - 如何从命令行运行 Spark-java 程序

关闭。这个问题需要更多focused.它目前不接受答案。想改进这个问题吗?更新问题,使其只关注一个问题editingthispost.关闭8年前。Improvethisquestion我正在spark中运行wordcountjava程序。如何从命令行运行它。

scala - Apache Spark 抛出 java.lang.IllegalStateException : unread block data

我们正在做的是:根据网站上的文档安装Spark0.9.1,以及hadoop/hdfs的CDH4(和另一个带有CDH5的集群)发行版。使用sbt构建带有Spark应用程序的fatjar,然后尝试在集群上运行它我还在底部包含了代码片段和sbtdeps。当我用谷歌搜索这个时,似乎有两个有点含糊的回答:a)节点/用户代码上的spark版本不匹配b)需要向SparkConf添加更多的jar现在我知道(b)不是在其他集群上成功运行相同代码但只包含一个jar(它是一个胖jar)的问题。但我不知道如何检查(a)-似乎Spark没有任何版本检查或任何东西-如果它检查版本并抛出“不匹配的版本异常:你有用户

scala - Spark 任务不可序列化(案例类)

当我在闭包中使用扩展Serializable的案例类或类/对象时,Spark抛出Tasknotserializable。objectWriteToHbaseextendsSerializable{defmain(args:Array[String]){valcsvRows:RDD[Array[String]=...valdateFormatter=DateTimeFormat.forPattern("yyyy-MM-ddHH:mm:ss")valusersRDD=csvRows.map(row=>{newUserTable(row(0),row(1),row(2),row(9),row

java - Spark中分布式缓存的等价物?

这个问题在这里已经有了答案:HadoopDistributedCachefunctionalityinSpark(2个答案)关闭3年前。在Hadoop中,您可以使用分布式缓存来复制每个节点上的只读文件。在Spark中这样做的等效方法是什么?我知道广播变量,但这只适用于变量,不适用于文件。

java - Spark 异常 : Task failed while writing rows

我正在读取文本文件并将它们转换为parquet文件。我正在使用Spark代码来做这件事。但是当我尝试运行代码时出现以下异常org.apache.spark.SparkException:Jobabortedduetostagefailure:Task2instage1.0failed4times,mostrecentfailure:Losttask2.3instage1.0(TID9,XXXX.XXX.XXX.local):org.apache.spark.SparkException:Taskfailedwhilewritingrows.atorg.apache.spark.sql.

Hadoop 纱 : How to limit dynamic self allocation of resources with Spark?

在我们在Yarn下运行的Hadoop集群中,我们遇到了一个问题,即一些“更聪明”的人能够通过在pySparkJupyter笔记本中配置Spark作业来消耗大得多的资源block,例如:conf=(SparkConf().setAppName("name").setMaster("yarn-client").set("spark.executor.instances","1000").set("spark.executor.memory","64g"))sc=SparkContext(conf=conf)这导致了这些人从字面上排挤其他不那么“聪明”的人的情况。有没有办法禁止用户自行分配资

hadoop - Apache Spark : In SparkSql, 是易受 SQL 注入(inject)攻击的 sql

这个问题在这里已经有了答案:SparkSQLsecurityconsiderations(1个回答)关闭5年前。场景:假设Hive中有一个表,使用下面的ApacheSpark中的SparkSql查询它,其中表名作为参数传递并连接到查询.在非分布式系统的情况下,我对SQL注入(inject)漏洞有基本的了解,并且在JDBC的上下文中了解createStatement/preparedStatement在这种情况下的用法。但是sparksql这个场景呢,这段代码有漏洞吗?有什么见解吗?defmain(args:Array[String]){valsconf=newSparkConf().s