草庐IT

uber-jar

全部标签

hadoop - 使用 Amazon S3 存储桶输入和输出在 Amazon EMR 上运行自定义 JAR 时出现错误(文件系统错误)

我正在尝试使用自定义JAR的输入和输出参数作为S3存储桶在AmazonEMR集群上运行自定义JAR(-inputs3n://s3_bucket_name/ldas/in-outputs3n://s3_bucket_name/ldas/out)当集群运行此自定义JAR时,会发生以下异常。Exceptioninthread"main"java.lang.IllegalArgumentException:**WrongFS:s3n://s3_bucket_name/ldas/out,expected:hdfs://10.214.245.187:9000**atorg.apache.hadoo

hadoop - HDInsight Hive 在 ADD JAR 语句中找不到 SerDe jar

我已经将json-serde-1.1.9.2.jar上传到路径为“/lib/”的blob存储并添加了ADDJAR/lib/json-serde-1.1.9.2.jar但是我得到了/lib/json-serde-1.1.9.2.jardoesnotexist我在没有路径的情况下进行了尝试,并且还向ADDJAR语句提供了完整的url,结果相同。非常感谢对此的一些帮助,谢谢! 最佳答案 如果您不包含该方案,那么Hive将在本地文件系统上查找(您可以查看thesource的第768行附近的代码)当您包含URI时,请确保使用完整形式:ADDJ

hadoop - 如何在未安装的系统中使用 jar 文件运行 drill?

我正在使用Apachedrill1.8制作程序。我正在尝试在未安装drill的HDFS中运行该程序。我认为的方法是使用jar文件,drill包含的jar文件可以运行这个程序,因为它是在虚拟机中运行的。但我对这种方式没有信心。能行吗?如果这种方式可行,如何在jar文件中包含drill?如果不是,那是什么方式?还有一个问题,如何使用Java代码更改存储配置? 最佳答案 drill或hdfs是否在同一台机器上运行并不重要。为什么需要创建一个jar。如果您使用Maven作为构建工具,请添加DrillJDBC驱动程序依赖项:org.apach

hadoop - pig 注册jar,文件不存在报错

我正在使用Hortonworks沙盒并尝试运行一个简单的pig脚本。似乎有与“文件不存在”相关的恼人错误。脚本如下:REGISTER'/piggybank.jar';inp=load'/my.csv'USINGorg.apache.pig.piggybank.storage.CSVExcelStorage..ERROR2997:EncounteredIOException.Filedoesnotexist:hdfs://sandbox.hortonworks.com:8020/tmp/udfs/'/piggybank.jar'但是,我的jar位于根目录(/)中,并且我也给予了适当的许可

java - 我也可以使用 hadoop jar 命令来运行普通的 java 程序吗?

我的Java代码中有一些hadoop文件系统操作(例如:hdfsmkdir)。当我尝试使用java-cp运行java程序时,该目录在linux本地文件系统中创建。所以我用hadoopjar命令运行程序,目录在hdfs中创建。现在我打算使用hadoopjar命令运行整个java程序。我想知道使用hadoopjar命令会不会有任何问题,尤其是在从本地文件夹读取文件或执行Runtime.getRuntime().exec(somelinuxcommand);以下代码片段时我的hdfs文件操作Configurationconf=newConfiguration();FileSystemfs=F

hadoop - 我不明白这个示例代码中的 jar 和 class-name 是什么

我正在尝试使用sqoop合并hdfs上的增量数据,这是我在googlehttps://developer.ibm.com/hadoop/2017/02/28/typical-scenario-sqoop-incremental-import-merge/上找到的示例代码我不明白那里的jar文件和类名是什么,我应该提供哪个jar文件的路径以及什么类名?有人可以帮我理解吗?谢谢。sqoopmerge--new-data/apps/hive/warehouse/student/part-m-00000--onto/apps/hive/warehouse/student/part-m-0000

hadoop - 使用 jar 命令执行 WordCount 程序时 hadoop 中出现 "No such file or directory"

我是Hadoop的新手,正在尝试执行WordCount问题。到目前为止我所做的事情-引用以下链接设置Hadoop单节点集群。http://www.bogotobogo.com/Hadoop/BigData_hadoop_Install_on_ubuntu_single_node_cluster.php引用下面的链接写出字数统计问题https://kishorer.in/2014/10/22/running-a-wordcount-mapreduce-example-in-hadoop-2-4-1-single-node-cluster-in-ubuntu-14-04-64-bit/问题

java - 如何将第三方 jar 添加到 mapreduce 作业?

寻找将第三方jar添加到mapreduce作业中的解决方案。目前,我们正在将第三方jar捆绑到mapreduce作业中。似乎有时mapreduce作业jar的大小会变高。有没有另一种方法来克服这个问题 最佳答案 我相信“-libjarsjar1,jar2,...”是您在这里需要的 关于java-如何将第三方jar添加到mapreduce作业?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/quest

java - 在集群中启动 MapReduce 作业失败,退出代码为 : -1000 and job. jar 不存在

我正在尝试在Java代码中启动mapreduce作业并将作业提交给yarn。但出现以下错误:2018-08-2600:46:26,075WARN[main]util.NativeCodeLoader(NativeCodeLoader.java:(62))-Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicable2018-08-2600:46:27,526INFO[main]client.RMProxy(RMProxy.java:createRMProxy(92))-

hadoop - 为什么 "hadoop -jar"命令只启动本地作业?

我在提交作业时错误地使用了“hadoop-jar”而不是“hadoopjar”。在这种情况下,我的jar包不能提交到集群,只会启动“localjobrunner”,这让我很纳闷。有谁知道原因吗?或者“hadoopjar”和“hadoop-jar”命令之间的区别?谢谢! 最佳答案 /usr/bin/hadoopjar是您的Hadoop的$HADOOP_HOME/bin/hadoop脚本需要作为参数的内容,其中$HADOOP_HOME是您保存hadoop相关文件的位置。hadoop脚本摘录elif["$COMMAND"="jar"];t