草庐IT

KERN_SRC_PATH

全部标签

hadoop - 有没有办法在 pig 脚本中检查 "Path or file exists"

在我的hadoop环境中,输出目录是动态创建的。因此,我想动态地读取输出目录,如果存在路径或文件,则执行此操作,否则执行此操作。那么有什么方法可以检查pig脚本中的“路径或文件是否存在”?? 最佳答案 在Pig中,您可以运行shell命令来测试路径是否存在,如果存在则返回该路径,否则返回其他始终可用的空数据路径。然后依赖Pig的参数替换。例如:%declareemptyPath'/user/me/emptyData.csv'%declarerequestedPath'/user/me/realData.csv'%declareact

Hadoop 和 JZMQ - java.library.path 中没有 jzmq

我正在尝试让JZMQ代码在Hadoop集群上的一个节点上运行。我在该节点上的-/usr/local/lib目录下安装了必要的nativejmzq库文件。这是列表-libjzmq.alibjzmq.lalibjzmq.solibjzmq.so.0libjzmq.so.0.0.0libzmq.alibzmq.lalibzmq.solibzmq.so.3libzmq.so.3.0.0pkgconfig在我的shell脚本中,如果我运行下面的Java命令,它绝对可以正常工作-java-Djava.library.path=/usr/local/lib-classpathclass/:lib/:

hadoop - Spark : Saving RDD in an already existing path in HDFS

我可以使用saveAsTextFile方法将RDD输出保存到HDFS。如果文件路径已经存在,此方法将抛出异常。我有一个用例,我需要将RDDS保存在HDFS中已有的文件路径中。有没有一种方法可以将新的RDD数据附加到同一路径中已经存在的数据中? 最佳答案 自Spark1.6以来可用的一种可能的解决方案是使用具有text格式和append模式的DataFrames:valoutputPath:String=???rdd.map(_.toString).toDF.write.mode("append").text(outputPath)

vue2bug解决:in ./src/views/install/data-base/scss/menu.scss Module Warning (from ./node_modules/postc

文章目录导文文章重点导文in./src/views/install/data-base/scss/menu.scssModuleWarning(from./node_modules/postcss-loader/src/index.js):Warning(14:5)startvaluehasmixedsupport,considerusingflex-startinstead@./node_modules/css-loader/dist/cjs.js??ref–8-oneOf-1-1!./node_modules/vue-loader/lib/loaders/stylePostLoader.j

scala - Spark-Scala HBase 表创建失败(MetaException(消息 :file:/user/hive/warehouse/src is not a directory or unable to create one)

我的VM中运行着hortonworks沙盒。我已经完成了所有的hive-site.xml配置并放置在Spark/conf文件中。我可以使用PySpark访问HBase并创建/更新表,但是当我在Scala中执行相同的实现时,会出现以下错误:FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.DDLTask.MetaException(message:file:/user/hive/warehouse/srcisnotadirectoryorunabletocreateone)我也更改了对“hive/war

hadoop - pyspark.sql.utils.AnalysisException : u'Path does not exist

我正在使用标准的hdfs运行amazonemr的spark作业,而不是S3来存储我的文件。我在hdfs://user/hive/warehouse/中有一个配置单元表,但在运行我的spark作业时找不到它。我配置了spark属性spark.sql.warehouse.dir以反射(reflect)我的hdfs目录的属性,而yarn日志确实显示:17/03/2819:54:05INFOSharedState:Warehousepathis'hdfs://user/hive/warehouse/'.稍后在日志中说(页面末尾的完整日志):LogType:stdoutLogUploadTime

hadoop - 为 YARN/Hadoop2 作业设置 LD_LIBRARY_PATH 或 java.library.path

我有一个HadoopFileSystem,它使用带有JNI的本地库。显然,我必须独立于当前执行的作业来包含共享对象。但是我找不到告诉Hadoop/Yarn应该在哪里寻找共享对象的方法。我使用以下解决方案部分成功,同时使用yarn启动wordcount示例。在启动资源和节点管理器时设置exportJAVA_LIBRARY_PATH=/path。这有助于资源和节点管理器,但实际的作业/应用程序失败了。在执行wordcount示例时打印LD_LIBRARY_PATH和java.library.path会产生以下结果。什么/logs/userlogs/application_x/contain

r - 无法在 dplyr.spark.hive 包中创建由 SparkSQL 支持的 dplyr src

最近我发现了很棒的dplyr.spark.hive启用dplyr的软件包前端操作spark或hive后端。在包的README中有关于如何安装此包的信息:options(repos=c("http://r.piccolboni.info",unlist(options("repos"))))install.packages("dplyr.spark.hive")还有很多关于如何使用dplyr.spark.hive的例子当一个已经连接到hiveServer-checkthis.但我无法连接到hiveServer,所以我无法从这个包的强大功能中受益...我试过这样的命令,但没有成功。有没有人

hadoop dfs -copyFromLocal src dest

我的问题是为什么我们需要指定目标。我放到hdfs中的文件不一定完全在本地机器上,所以在命令中指定dest有什么用。当我通过命令lie运行命令然后执行hadoopdfs-ls时,我可以看到我的文件在hdfs中列出,但是当我使用以编程方式创建文件时FileSystemfs=FileSystem.get(conf);PathfilenamePath=newPath("hello.txt");fs.create(filenamePath);然后执行hadoopdfs-ls我找不到这个文件。在我的core-site.xml中,我有以下...hadoop.tmp.dir/home/apurv/ha

hadoop - Hive:每当它触发 map reduce 时,它​​都会给我这个错误 "Can not create a Path from an empty string",我该如何调试?

我正在使用hive0.10以及何时使用hive-e"showtables",hive-e"desctable_name"itworks!但是当我执行类似hive-e"selectcount(*)table_name使用旧版本的配置单元和新集群抛出此错误。调试此类问题的正确方法应该是什么,没有从谷歌找到任何解决问题的方法。java.lang.IllegalArgumentException:CannotcreateaPathfromanemptystringatorg.apache.hadoop.fs.Path.checkPathArg(Path.java:91)atorg.apache