草庐IT

lang-language

全部标签

java - HDInsight-Spark (spark-submit) 失败 - java.lang.NoSuchMethodError : com. microsoft.azure.storage.blob.CloudBlockBlob.startCopy

我们正在开发一个spark应用程序。它将托管在azureHDInsightSpark集群上。我们的用例是这样的,我们必须从azureblob存储中提取数据并使用spark处理数据,最后创建或将数据追加回azureblob存储。所以我们用了azure-storage-4.3.0.jar我们在eclipse项目中使用了Maven并添加了以下依赖com.microsoft.azureazure-storage4.3.0编译成功。甚至应用程序在本地机器上也能正常运行并且执行时没有任何问题。因此我们从eclipse创建了一个uber/fatjar并移植到我们的AzureHDInsight-Spa

Java.lang.finalize 堆在 hadoop url 解析作业期间变得太大

我正在尝试浏览url列表并分析其主页的内容。为此,我有一个没有缩减器的Hadoop映射器,它获取url并将它们发送到解析器类进行解析。解析器使用Jericho'shtmlparser的流式源类读取页面内容。它实际上使用缓冲阅读器接收所述页面的内容。我让它调用流式源和缓冲读取器类的close方法,之后我的映射器调用解析器toString方法并继续到下一个url。快速内存分析显示垃圾收集器似乎无法跟上一堆终结对象。我听说过关于System.gc()可靠性的坏消息,所以我想知道是否有另一种更简洁的方法来摆脱这个巨大的finalize对象堆。 最佳答案

java - ClassCastException:java.lang.Exception: mapred 中的 java.lang.ClassCastException

我正在编写一个mapreduce应用程序,它接受(键,值)格式的输入并只显示与reducer输出相同的数据。这是示例输入:1500s11960s1Aldus1在下面的代码中,我使用>指定输入格式,并在main()中将分隔符指定为制表符。当我运行代码时,我遇到了错误消息:java.lang.Exception:java.lang.ClassCastException:org.apache.hadoop.io.Textcannotbecasttoorg.apache.hadoop.io.LongWritableatorg.apache.hadoop.mapred.LocalJobRunne

hadoop - 使用 Hive TableView 映射与 Hbase 表 : java. lang.NoSuchMethodError : org. apache.hadoop.hive.serde2.lazy 在 spark 上运行 Hive 的问题

我正在尝试通过Spark引擎从配置单元映射来访问Hbase表。来自hive:当我在使用Hbase映射的HiveView上运行查询时,我可以获得所有想要的结果。来自星火:当我运行查询以从配置单元表中获取数据时,我可以得到它,但是当我对hbase映射的配置单元表执行相同的操作时,出现以下错误。Error:java.lang.NoSuchMethodError:org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe.initSerdeParams(Lorg/apache/hadoop/conf/Configuration;Ljava/util/P

java.lang.NoClassDefFoundError : com/google/common when trying to create a Configuration object 错误

我正在尝试从java中与我的HDFS进行交互。当我尝试创建一个新的Configuration对象时配置conf=newConfiguration();我的应用程序抛出这个错误Exceptioninthread"main"java.lang.NoClassDefFoundError:com/google/common/base/Preconditionsatorg.apache.hadoop.conf.Configuration$DeprecationDelta.(Configuration.java:306)atorg.apache.hadoop.conf.Configuration$

java - YarnClient 运行时异常 : java. lang.NoClassDefFoundError: org/apache/hadoop/HadoopIllegalArgumentException

我是第一次使用YarnClient。我的目标是使用Java获取并显示在Yarn上运行的应用程序。我的项目设置如下:publicstaticvoidmain(String[]args)throwsIOException,YarnException{//CreateyarnClientYarnConfigurationconf=newYarnConfiguration();YarnClientyarnClient=YarnClient.createYarnClient();yarnClient.init(conf);try{Listapplications=yarnClient.getAp

c++ - Hadoop 2.6 java.lang.nullpointerexception

我正在尝试运行wordcount示例classWordCountMapper:publicHadoopPipes::Mapper{public://constructor:doesnothingWordCountMapper(HadoopPipes::TaskContext&context){}//mapfunction:receivesaline,outputs(word,"1")//toreducer.voidmap(HadoopPipes::MapContext&context){//---getlineoftext---stringline=context.getInputVa

JAVA - SPARK - saveAsTextFile 不能应用于 '(java.lang.String, org.apache.hadoop.io.compress.CompressionCodec)'

我正在使用Spark在JAVA中编写程序。我有一个名为“copied_logs”的JavaRDD,它使用映射并从位于hdfs上的日志中复制几个字段。现在,我想用Bzip2压缩“copied_logs”然后保存。我想使用“saveAsTextFile”函数将这些数据保存在hdfs上。我的压缩保存代码如下:CompressionCodeccodec=newBZip2Codec();copied_logs.saveAsTextFile(output_dir+"copied_logs.json",codec);但是我得到这个错误:Error:(128,69)java:incompatiblet

hadoop - 线程 "main"java.lang.NoClassDefFoundError : org/apache/hadoop/yarn/exceptions/YarnRuntimeException 中的异常

我在hadoop-2.7.0上运行了一个mapreduce作业,但是这个mapreduce作业没有完成,我遇到了这个错误:Jobjob_1491881070758_0003failedwithstateFAILEDdueto:Applicationapplication_1491881070758_0003failed2timesduetoAMContainerforappattempt_1491881070758_0003_000002exitedwithexitCode:1Formoredetailedoutput,checkapplicationtrackingpage:http

r - sparklyr - rsparkling as_h2o_frame() 错误 java.lang.IllegalArgumentException : Unsupported argument: (spark. dynamicAllocation.enabled,true)

我正在尝试在sparklyrsession期间通过H2o(使用库rsparkling)使用一些机器学习功能。我正在运行hadoop集群。考虑以下示例:library(dplyr)library(sparklyr)library(rsparkling)library(h2o)#configurethesparksessionandconnectsc=spark_connect(master='yarn-client',spark_home='/usr/hdp/current/spark-client',app_name='sparklyr',config=list("sparklyr.s