草庐IT

java - 当运行 hadoop fs -ls 结果是 "ls: Call From java.net.UnknownHostException: ubuntu: ubuntu: unknown error to localhost:9000...."

ls:CallFromjava.net.UnknownHostException:ubuntu:ubuntu:unknownerrortolocalhost:9000failedonconnectionexception:java.net.ConnectException:Connectionrefused;Formoredetailssee:http://wiki.apache.org/hadoop/ConnectionRefused我的hadoop配置是这样的。/etc/主机127.0.0.1localhost#ThefollowinglinesaredesirableforIPv

hadoop - 从 Spark 作业创建 FS 的快照

我想在运行spark作业时创建底层HDFS的快照。特定步骤涉及删除某些Parquet文件的内容。我想创建快照执行删除操作,验证操作结果并继续执行后续步骤。但是,我找不到从我的spark作业访问HDFSAPI的好方法。我要创建快照的目录在HDFS中被标记/标记为可快照。创建快照的命令行方法有效,但是我需要以编程方式执行此操作。我在CDH5.5上运行Spark1.5。关于如何执行此操作的任何提示线索?谢谢内存开发 最佳答案 我还没有验证这一点,但至少我没有遇到编译错误,理论上这个解决方案应该有效。这是Scala代码:valsc=newS

shell - 在 oozie 工作流 (HUE) 中,如何将参数从 shell 操作传递到 HDFS fs 操作

在我的工作流程中,我有一个shell操作和一个HDFSfs操作ShellAction与日期相呼应。(日期=2016-10-06)我想在HDFSfsactionmkdir路径中设置上面的日期参数。以下是Action定义。我收到以下错误。EL_ERROREncountered"&",expectedoneof[,,,"true","false","null","(",")","-","not","!","empty",] 最佳答案 您需要连接两个字符串以形成完整路径。Stringconcat(Strings1,Strings2)它返回2

amazon-web-services - 如何使用 "s3a://"方案让 Hive 2.2.1 成功与 AWS S3 集成

我遵循了各种已发布的文档,了解如何使用s3a://方案将ApacheHive2.1.1与AWSS3集成,配置fs.s3a.access.key和fs.s3a.secret.key用于hadoop/etc/hadoop/core-site.xml和hive/conf/hive-site.xml.我现在可以让hdfsdfs-lss3a://[bucket-name]/正常工作(它返回那个桶的s3ls)。所以我知道我的信用、存储桶访问和整体Hadoop设置是有效的。hdfsdfs-lss3a://[bucket-name]/drwxrwxrwx-hdfshdfs02017-06-2722:4

hadoop - 如何使用 pig 或 hadoop fs 选项重命名具有特定扩展名的文件?

我在基于mm/dd/yyyy分区的文件夹结构中有*.gz文件.我想重命名以.gz扩展名结尾的文件。请建议如何使用hadoopfs命令行选项或使用pig重命名具有特定扩展名的文件。这是我的文件夹结构----rootfolder|---year--month--day--filename*.gz我想重命名扩展名为.gz的文件。请建议如何实现这一目标。 最佳答案 我知道这是一个肮脏的hack,但它对我有用。我假设您想将.gz文件扩展名更改为.newextension:hadoopfs-lsroot/*/*/*/filename*.gz|g

hadoop - 将数据从 S3 加载到位于 EMR 中 S3 的外部 Hive 表时出现 "Path is not legal"错误

我有一个运行Hive的EMR集群。我在S3上有一个这样定义的外部表:+-----------------------------------------------------------------+|CREATEEXTERNALTABLE`blah`(||`blah1`string,||`blah2`string)||PARTITIONEDBY(||`blah3`string,||`blah4`string,||ROWFORMATDELIMITED||FIELDSTERMINATEDBY'\t'||STOREDASINPUTFORMAT||'org.apache.hadoop.ma

hadoop - Hadoop 可以访问 S3 文件,但 Spark 不能

我在一台EC2机器上运行Spark1.4和Hadoop2.6。我配置了HADOOP_CLASSPATH和core-site.xml以访问我的S3文件。虽然Hadoop能够访问我存储桶中的文件,但spark-shell失败并抛出以下错误:java.lang.RuntimeException:java.lang.ClassNotFoundException:Classorg.apache.hadoop.fs.s3native.NativeS3FileSystemnotfound我尝试将awsjar添加到类路径中,但没有任何帮助。有人知道这可能来自哪里吗?谢谢!

java - Cloudera Quickstart VM illegalArguementException : Wrong FS: hdfs: expected: file:

我有一个简单的java代码可以将一个文本文件从本地复制到hdfs。我正在使用cloudera的quickstart虚拟机。Configurationconf=newConfiguration();conf.addResource(newPath("/etc/hadoop/conf/core-site.xml"));conf.addResource(newPath("/etc/hadoop/conf/hdfs-site.xml"));FileSystemfs=FileSystem.get(conf);fs.copyFromLocalFile(newPath("/home/cloudera

hadoop - 使用 oozie 在 S3 中移动文件

我想使用AWSoozie在S3中移动文件。我要运行awss3mvs3://temp/*.zips3://temp/processed_files/.--recursive我如何在oozie中执行此操作?编辑12015-11-1210:18:55,758WARNShellActionExecutor:542-USER[hadoop]GROUP[-]TOKEN[]APP[rad_workflow]JOB[0000118-151029144311676-oozie-oozi-W]ACTION[0000118-151029144311676-oozie-oozi-W@sh]Launcherex

java - 具有混合输出端点的 Mapreduce 作业 : S3 and HDFS

我有一个在EMR中运行的MR作业,它当前将输出存储在S3中。reducer的输出将是同一映射器(想想身份映射器)的输入,我想尽可能快地执行连续运行,而不是等待EMR写入S3,然后在“x”分钟后安排映射器读取数据。写入和读取S3需要很长时间(~3--5分钟),所以我想知道是否有办法避免在连续运行时从S3读取?我还需要将mapreduce作业的输出写入S3,因为该数据对我很重要并且需要保留。但是,对于每次连续的MR运行,我不想从S3读取,而是可以将其写入HDFS(或缓存),然后将其用作下一次运行的输入吗?MultipleOutputs-有助于将数据输出到文件夹中的多个文件或写入多个文件夹。