草庐IT

EXCLUDED_FILES

全部标签

hadoop - Spark yarn-cluster 模式 - 读取通过 --files 传递的文件

我正在使用yarn-clustermaster运行我的spark应用程序。应用程序有什么作用?外部服务根据对RESTService的HTTP请求生成一个jsonFileSpark需要读取这个文件并在解析完json之后做一些工作想到的最简单的解决方案是使用--files加载该文件。在yarn-cluster模式下读取文件意味着它必须在hdfs上可用(如果我是对的?)并且我的文件正在被复制到这样的路径:/hadoop_user_path/.sparkStaging/spark_applicationId/myFile.json我当然可以在哪里阅读它,但是我找不到从任何配置/SparkEnv

hadoop - Sqoop增量导入 "Cannot append files to target dir"

我在使用Sqoop将数据从MySQL导入Hive时遇到问题...这个查询:sqoopimport--connectjdbc:mysql://xx.xx.xx.xx/database\--usernamesqoop--passwordsqoop--tabledatatable\--target-dir/home/cloudera/user/hive/warehouse/database.db/datatable\--as-parquetfile-m1--append返回这个错误:15/01/1416:27:28WARNutil.AppendUtils:Cannotappendfilest

hadoop - 自定义分区程序 : N number of keys to N different files for word count

您好,我正在学习hadoop,我想要一个关于如何使用自定义partioner解决字数统计问题的示例。我希望将缩减器设置为26,以便所有以“A”开头的字符都将转到第一个缩减器,所有字符“B”将转到第二个缩减器,依此类推....公共(public)类PersonPartitioner扩展了Partitioner{@OverridepublicintgetPartition(Textkey,IntWritableVal,intnumOfReducer){Stringline=key.toString();String[]splits=line.trim().replaceAll("[0-9]

java - Spark : Read Iterate on 2 files

我需要一些有关Spark+Java编程的帮助。这是我的问题:我在hdfs中有一个大文件,名为A,另一个大文件名为B。基本上,我需要同时迭代第一个(A)和第二个(B)。我的意思是这样的(这是伪代码):a=read.A;//ReadrecordfromAb=read.B;//ReadrecordfromBwhile(a!=EOF){if(a>b){b=read.B;//WriteOutputinsomeway}else{a=read.A;//Writeoutputinsomeway}}是否可以使用Spark+Java做类似的事情? 最佳答案

hadoop - MrJob 花费大量时间 Copy local files into hdfs

我遇到的问题是:已经将我的input.txt(50MBytes)文件放入HDFS,我正在运行python./test.pyhdfs:///user/myself/input.txt-rhadoop--hadoop-bin/usr/bin/hadoopMrJob似乎花了很多时间将文件复制到hdfs(又是?)Copyinglocalfilesintohdfs:///user/myself/tmp/mrjob/test.myself.20150927.104821.148929/files/这符合逻辑吗?它不应该直接从HDFS使用input.txt吗?(使用Hadoop版本2.6.0)

hadoop - 批处理模式中的 livy 抛出错误 Error : Only local python files are supported: Parsed arguments

我尝试通过提交python文件以批处理模式执行livy但它不起作用,我尝试了两种方法-从本地文件系统运行py文件,同时通过将它复制到那里在hdfs上运行它......但它不工作......请帮忙hduser@tarun-ubuntu:/home/tarun/spark/examples/src/main/python$curl-XPOST-H"Content-Type:application/json"tarun-ubuntu:8998/batches--data'{"file":"file:///home/tarun/spark/examples/src/main/python/pi

hadoop - Hive 负载数据 :No files matching path file:/home/hive/sample. 日志

我正在尝试加载HDP-sandbox上的sample.log文件我最初的努力LOADDATALOCALINPATH'sample.log'OVERWRITEINTOTABLElogs;好像路径不匹配Error:Errorwhilecompilingstatement:FAILED:SemanticExceptionLine1:23Invalidpath''sample.log'':Nofilesmatchingpathfile:/home/hive/sample.log(state=42000,code=40000)我注销,移动到/root,然后进入hive0:jdbc:hive2:/

hadoop - 创建配置单元表 : no files matching path file. .. 但文件存在于路径中

我正在尝试使用存储在hdfs中的文件创建一个hiveorc表。我有一个表“partsupp.tbl”文件,其中每一行都具有以下格式:1|25002|8076|993.49|venideas.quicklyevenpackagesprint.pendingmultipliersmusthavetoarefluff|我像这样创建一个配置单元表:createtableifnotexistspartsupp(PS_PARTKEYBIGINT,PS_SUPPKEYBIGINT,PS_AVAILQTYINT,PS_SUPPLYCOSTDOUBLE,PS_COMMENTSTRING)STOREDAS

scala - 如何使用 --files 选项执行上传到工作节点的应用程序?

我正在使用spark-submit将文件上传到我的工作节点,我想访问该文件。这个文件是一个二进制文件,我想执行它。我已经知道如何通过scala执行文件,但我一直收到“找不到文件”异常,而且我找不到访问它的方法。我使用以下命令提交我的作业。spark-submit--classMain--masteryarn--deploy-modecluster--fileslas2lasmyjar.jar当作业正在执行时,我注意到它已上传到当前正在运行的应用程序的暂存目录,当我尝试运行以下命令时,它不起作用。valcommand="hdfs://url/user/username/.sparkSta

hadoop - 收到警告 ipc.Client : interrupted waiting to send params to server when copying files to HDFS

我写了一个perl脚本,其中调用了copyFromLocal来上传文件。当它运行时,WARNipc.Client:interruptedwaitingtosendparamstoserver发生。我检查了刚刚上传的HDFS上的所有文件。看来都复制成功了。谁知道那个警告是什么意思?完整的警告信息12/10/2311:41:07WARNipc.Client:interruptedwaitingtosendparamstoserverjava.lang.InterruptedExceptionatjava.util.concurrent.locks.AbstractQueuedSynchro