草庐IT

EXCEPTION_INLINE

全部标签

exception - AWS EC2 上的 Spark 在开始我的工作时抛出 EOFException

我正在尝试在我使用他们提供的Spark-ec2脚本创建的Spark集群上运行我的Spark作业。我能够运行SparkPi示例,但每当我运行我的工作时,我都会收到此异常:Exceptioninthread"main"java.io.IOException:Calltoec2-XXXXXXXXXX.compute-1.amazonaws.com/10.XXX.YYY.ZZZZ:9000failedonlocalexception:java.io.EOFExceptionatorg.apache.hadoop.ipc.Client.wrapException(Client.java:1107

exception - NoSuchMethodError HTableDescriptor.addFamily

我已经安装了hadoop2.5.2和hbase1.0.1.1(它们相互兼容)。但是在hadoop代码中,我试图在hbase表中添加columnfamily。我的代码是ConfigurationhbaseConfiguration=HBaseConfiguration.create();JobhbaseImportJob=newJob(hbaseConfiguration,"FileToHBase");HBaseAdminhbaseAdmin=newHBaseAdmin(hbaseConfiguration);if(!hbaseAdmin.tableExists(Config_value

java - 创建 spark 客户端失败 : Hive on spark exception

我已将Hive执行引擎更改为SPARK。在执行任何DML/DDL时,我都会遇到异常。hive>selectcount(*)fromtablename;QueryID=jibi_john_20160602153012_6ec1da36-dcb3-4f2f-a855-3b68be118b36Totaljobs=1LaunchingJob1outof1Inordertochangetheaverageloadforareducer(inbytes):sethive.exec.reducers.bytes.per.reducer=Inordertolimitthemaximumnumberof

java - Debian 上的单节点 Hadoop : failed on connection exception

我在debian上安装了hadoop,运行良好。(不在VM中)然后我重新启动计算机,它开始显示问题。我得到错误-hadoopfs-ls/user/hduser返回这样的错误-16/06/1510:48:34WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicablels:CallFromlocalhost/127.0.0.1tomylocalcomp:9000failedonconnectionexception:ja

hadoop - 运行时异常 : Error in configuring object with null pointer exception while running my UDAF?

我一直在尝试编写一个UDAF来计算加权平均值。我用类似于现有UDAF的方式编写它来计算平均值,但它似乎只适用于我的本地机器。我不确定出了什么问题....有人遇到过类似的问题吗以下是生成的错误:java.lang.RuntimeException:Errorinconfiguringobjectatorg.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)atorg.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)

hadoop - 获取错误 {"RemoteException": {"exception" :"IllegalArgumentException" ,"javaClassName":

我在我的EC2实例上设置了CHD4。一切正常。当我尝试访问时:http://ec2-00-000-000-000.us-west-1.compute.amazonaws.com:50075/webhdfs/v1/?op=GETHOMEDIRECTORY我遇到以下错误:{"RemoteException":{"exception":"IllegalArgumentException","javaClassName":"java.lang.IllegalArgumentException","message":"namenoderpcaddressisnotspecified."}}我什至

java - mapreduce 程序中的错误 : Exception in thread "main" java. lang.VerifyError

我是mapreduce程序的初学者,在运行该程序时出现以下错误:Exceptioninthread"main"java.lang.VerifyError:(class:com/google/common/collect/Interners,method:newWeakInternersignature:()Lcom/google/common/collect/Interner;)Incompatibleargumenttofunction错误是什么以及要包含哪个jar文件? 最佳答案 另一个原因是同时使用google-collect

exception - 索引 7 : hdfs://localhost:9000 with hadoop 处的权限中的非法字符

我正在尝试连接到hdfs。Configurationconfiguration=newConfiguration();configuration.set("fs.default.name",this.hdfsHost);fs=FileSystem.get(configuration);hdfsHost是127.0.0.1:9000。但是在FileSystem.get()中得到这个异常;我有另一个项目运行相同的代码,但运行良好。谁能提出任何建议?非常感谢异常跟踪:Exceptioninthread"main"java.lang.IllegalArgumentExceptionatjava

scala - Spark BigQuery 连接器 : Writing ARRAY type causes exception: ""Invalid value for: ARRAY is not a valid value""

在GoogleCloudDataproc中运行Spark作业。使用BigQueryConnector将作业输出的json数据加载到BigQuery表中。BigQueryStandard-SQLdatatypesdocumentation表示支持ARRAY类型。我的Scala代码是:valoutputDatasetId="mydataset"valtableSchema="["+"{'name':'_id','type':'STRING'},"+"{'name':'array1','type':'ARRAY'},"+"{'name':'array2','type':'ARRAY'},"+

Hadoop 分布式缓存 : file not found exception

我正在尝试在MapReduce上实现K-means。我已将初始质心文件上传到分布式缓存在驱动类中DistributedCache.addCacheFile(newURI("GlobalCentroidFile"),conf);在我的映射器类中Path[]localFiles=DistributedCache.getLocalCacheFiles(job);Filefile=newFile(localFiles[0].getName());System.out.println("Filereadis"+localFiles[0].getName());BufferedReaderbuff