草庐IT

sparking

全部标签

apache-spark - Spark 与 Hadoop yarn : Use the entire cluster nodes

我将Spark与HDFSHadoop存储和Yarn结合使用。我的集群包含5个节点(1个主节点和4个从节点)。主节点:48GbRAM-16个CPU内核从属节点:12GbRAM-16个CPU内核我正在执行两个不同的进程:WordCount方法和带有两个不同文件的SparkSQL。一切正常,但我在问一些问题,也许我不太了解Hadoop-Spark。第一个例子:WordCount我执行了WordCount函数并在两个文件(part-00000和part-00001)中得到了结果。part-00000的可用性是slave4和slave1,part-00001的可用性是slave3和slave4。

apache-spark - 用于点击流分析的 AWS S3 数据格式

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭4年前。Improvethisquestion我们使用Kafka队列从不同设备收集json格式的点击流数据。我们需要通过Hive(或者可能是Spark)分析这些数据。我们考虑使用每小时分区,我们将每小时调用我们的hive/spark作业。我阅读了有关不同文件格式的信息,但无法确定最佳文件格式以获得更好的查询性能。我们试图在s3中以avro格式保存json数据,但查询速度很慢。我们可能会将json数据以柱状格式插入

apache-spark - 解决 NoClassDefFoundError : org/apache/spark/Logging exception

我正在试用hbase-spark连接器。首先,我正在尝试this代码。我的pom依赖项是:org.apache.sparkspark-core_2.112.0.0org.apache.sparkspark-sql_2.112.0.0org.apache.hbasehbase-spark2.0.0-alpha4运行代码时出现以下异常:Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/spark/Loggingatjava.lang.ClassLoader.defineClass1(NativeMethod)a

apache-spark - Spark - 获取部分文件后缀

当Spark使用Hadoopwriter写入部分文件时(使用saveAsTextFile()),这是它保存文件的通用格式“part-NNNNN”。如何在运行时在Spark中检索这个后缀“NNNNN”?附言。我不想列出文件然后检索后缀。 最佳答案 文件名为part-00000、part-00001等。每个RDD分区都写入一个part-文件。因此,输出文件的数量将取决于正在写入的RDD中的分区。您可以检查正在写入的RDD的分区数(比如5),然后访问文件part-00000到part-00004。插图通过查询Hive表构建DataFram

apache-spark - 提供者 org.apache.hadoop.fs.s3a.S3AFileSystem 无法实例化

我正在尝试将模型学习从我的SparkStandalone集群保存到S3。但是我有这个错误:java.util.ServiceConfigurationError:org.apache.hadoop.fs.FileSystem:Providerorg.apache.hadoop.fs.s3a.S3AFileSystemcouldnotbeinstantiatedatjava.util.ServiceLoader.fail(ServiceLoader.java:232)atjava.util.ServiceLoader.access$100(ServiceLoader.java:185)a

apache-spark - Apache Yarn - 分配比物理内存或 RAM 更多的内存

我正在考虑将yarn.nodemanager.resource.memory-mb更改为高于我机器上可用RAM的值。快速搜索发现没有多少人这样做。许多在yarn上长期存在的应用程序,必然会有一个jvm堆空间分配,其中一些内存被更频繁地使用,而另一些则很少被使用。在这种情况下,对于此类应用程序来说,将一些不常用的内存部分交换到磁盘并将可用的物理内存重新分配给需要它的其他应用程序将是非常有意义的。鉴于上述背景,有人可以证实我的推理或提供另一种观点吗?另外,能否请您说明参数yarn.nodemanager.vmem-pmem-ratio在上述情况下的工作原理? 最

apache-spark - 为什么在 hadoop 上使用 H2O 时在 Yarn 中看不到具体的任务执行?

我按照官方要求在yarn上运行了H2O:http://h2o-release.s3.amazonaws.com/h2o/rel-wolpert/11/index.html这是我的命令:cd~/opt/h2o-3.18.0.8-hdp2.6hadoopjarh2odriver.jar-nodes1-mapperXmx6g-output/user/spark/h2o-3_output而且h2o集群运行成功。但是我在h2o-flow中运行exampleflow之后,并没有看到任何与GBM算法相关的计算,只有H2O本身。我想我会看到这样的东西。这是使用RapidMiner的决策树流程图的结果,

Java 序列化 vs Hadoop 序列化 vs Spark 序列化

我研究过Java的Serialization和Deserialization过程,并试图理解Hadoop和Spark还有。谁能告诉我Hadoop、Spark和Java的序列化过程之间的区别。 最佳答案 Hadoop有自己的序列化接口(interface)(Writable),旨在让产生的垃圾尽可能少。当mapper或reducer运行时,实现它的对象是可变的和重用的,从而进一步减少了垃圾量。此外,经过适当设计的Writable可以由不同版本的代码编写,解决了Serializable的固有问题。Spark没有自己的序列化,默认使用原生

java - Spark Java API,数据集操作?

我是新的sparkJavaAPI。我的数据集包含两列(account,Lib)。我想显示具有不同库的帐户。事实上我的数据集是这样的。ds1+---------+------------+|account|Lib|+---------+------------+|222222|bbbb||222222|bbbb||222222|bbbb|||||333333|aaaa||333333|bbbb||333333|cccc|||||444444|dddd||444444|dddd||444444|dddd|||||555555|vvvv||555555|hhhh||555555|vvvv|我

apache-spark - 使用 Apache Spark 获取大量时间范围的最快方法是什么?

我在Hadoop中有大约100GB的时间序列数据。我想使用Spark从1000个不同的时间范围内抓取所有数据。我已经尝试使用ApacheHive来创建一个非常长的SQL语句,其中包含大约1000个'ORBETWEENXANDYORBETWEENQANDR'语句。我也尝试过使用Spark。在这种技术中,我创建了一个具有相关时间范围的数据框,并将其加载到spark中:spark_session.CreateDataFrame()和df.registerTempTable()有了这个,我正在与新创建的时间戳数据框和更大的时间戳数据集进行连接。此查询需要很长时间,我想知道是否有更有效的方法来执