草庐IT

spark-graphx

全部标签

apache-spark - Spark 2.0 : spark-infotheoretic-feature-selection java. lang.NoSuchMethodError : breeze. linalg.DenseMatrix

我正在尝试使用Spark的InfoGain第三方(https://github.com/sramirez/spark-infotheoretic-feature-selection)包的MRMR功能。但是我的集群是2.0,我得到了这个异常。即使我将所有必需的Jar文件添加到spark类路径。但它仍然不起作用。虽然它在本地机器上正常工作,但在集群上却不行。异常(exception):18/03/2901:16:43WARNTaskSetManager:Losttask3.0instage14.0(TID47,EUREDWORKER3):java.lang.NoSuchMethodErro

apache-spark - Spark 独立设置中的内存使用情况

我有一个spark设置,其中有一个worker有6个核心。现在我向工作人员广播一个对象x。我有三个问题-对于mapreduce作业,将生成我的objx的6个副本还是x的单个副本将由所有核心共享?x的生命周期是什么,即;它什么时候会被摧毁。我问是因为这个对象x占用了大量内存。如果我从文件中读取对象,是否有其他方法可以在所有6个内核之间共享该对象。 最佳答案 广播数据在每个执行器(java进程)中传输和存储一次,而不是每个内核一次。换句话说,如果您只有一个节点,并且将spark.executor.instances设置为2,并将spar

apache-spark - Spark 与 Hadoop yarn : Use the entire cluster nodes

我将Spark与HDFSHadoop存储和Yarn结合使用。我的集群包含5个节点(1个主节点和4个从节点)。主节点:48GbRAM-16个CPU内核从属节点:12GbRAM-16个CPU内核我正在执行两个不同的进程:WordCount方法和带有两个不同文件的SparkSQL。一切正常,但我在问一些问题,也许我不太了解Hadoop-Spark。第一个例子:WordCount我执行了WordCount函数并在两个文件(part-00000和part-00001)中得到了结果。part-00000的可用性是slave4和slave1,part-00001的可用性是slave3和slave4。

apache-spark - 用于点击流分析的 AWS S3 数据格式

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭4年前。Improvethisquestion我们使用Kafka队列从不同设备收集json格式的点击流数据。我们需要通过Hive(或者可能是Spark)分析这些数据。我们考虑使用每小时分区,我们将每小时调用我们的hive/spark作业。我阅读了有关不同文件格式的信息,但无法确定最佳文件格式以获得更好的查询性能。我们试图在s3中以avro格式保存json数据,但查询速度很慢。我们可能会将json数据以柱状格式插入

apache-spark - 解决 NoClassDefFoundError : org/apache/spark/Logging exception

我正在试用hbase-spark连接器。首先,我正在尝试this代码。我的pom依赖项是:org.apache.sparkspark-core_2.112.0.0org.apache.sparkspark-sql_2.112.0.0org.apache.hbasehbase-spark2.0.0-alpha4运行代码时出现以下异常:Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/spark/Loggingatjava.lang.ClassLoader.defineClass1(NativeMethod)a

apache-spark - Spark - 获取部分文件后缀

当Spark使用Hadoopwriter写入部分文件时(使用saveAsTextFile()),这是它保存文件的通用格式“part-NNNNN”。如何在运行时在Spark中检索这个后缀“NNNNN”?附言。我不想列出文件然后检索后缀。 最佳答案 文件名为part-00000、part-00001等。每个RDD分区都写入一个part-文件。因此,输出文件的数量将取决于正在写入的RDD中的分区。您可以检查正在写入的RDD的分区数(比如5),然后访问文件part-00000到part-00004。插图通过查询Hive表构建DataFram

apache-spark - 提供者 org.apache.hadoop.fs.s3a.S3AFileSystem 无法实例化

我正在尝试将模型学习从我的SparkStandalone集群保存到S3。但是我有这个错误:java.util.ServiceConfigurationError:org.apache.hadoop.fs.FileSystem:Providerorg.apache.hadoop.fs.s3a.S3AFileSystemcouldnotbeinstantiatedatjava.util.ServiceLoader.fail(ServiceLoader.java:232)atjava.util.ServiceLoader.access$100(ServiceLoader.java:185)a

apache-spark - Apache Yarn - 分配比物理内存或 RAM 更多的内存

我正在考虑将yarn.nodemanager.resource.memory-mb更改为高于我机器上可用RAM的值。快速搜索发现没有多少人这样做。许多在yarn上长期存在的应用程序,必然会有一个jvm堆空间分配,其中一些内存被更频繁地使用,而另一些则很少被使用。在这种情况下,对于此类应用程序来说,将一些不常用的内存部分交换到磁盘并将可用的物理内存重新分配给需要它的其他应用程序将是非常有意义的。鉴于上述背景,有人可以证实我的推理或提供另一种观点吗?另外,能否请您说明参数yarn.nodemanager.vmem-pmem-ratio在上述情况下的工作原理? 最

apache-spark - 为什么在 hadoop 上使用 H2O 时在 Yarn 中看不到具体的任务执行?

我按照官方要求在yarn上运行了H2O:http://h2o-release.s3.amazonaws.com/h2o/rel-wolpert/11/index.html这是我的命令:cd~/opt/h2o-3.18.0.8-hdp2.6hadoopjarh2odriver.jar-nodes1-mapperXmx6g-output/user/spark/h2o-3_output而且h2o集群运行成功。但是我在h2o-flow中运行exampleflow之后,并没有看到任何与GBM算法相关的计算,只有H2O本身。我想我会看到这样的东西。这是使用RapidMiner的决策树流程图的结果,

Java 序列化 vs Hadoop 序列化 vs Spark 序列化

我研究过Java的Serialization和Deserialization过程,并试图理解Hadoop和Spark还有。谁能告诉我Hadoop、Spark和Java的序列化过程之间的区别。 最佳答案 Hadoop有自己的序列化接口(interface)(Writable),旨在让产生的垃圾尽可能少。当mapper或reducer运行时,实现它的对象是可变的和重用的,从而进一步减少了垃圾量。此外,经过适当设计的Writable可以由不同版本的代码编写,解决了Serializable的固有问题。Spark没有自己的序列化,默认使用原生