草庐IT

Hadoop 利用FileSystem API 执行hadoop文件读写操作

charles_wang888 2023-03-28 原文
 因为HDFS不同于一般的文件系统,所以Hadoop提供了强大的FileSystem API来操作HDFS.

核心类是FSDataInputStream和FSDataOutputStream

读操作:

我们用FSDataInputStream来读取HDFS中的指定文件(第一个实验),另外我们还演示了这个类的定位文件位置的能力,然后从指定位置开始读取文件(第二个实验)。

代码如下:

  1. /*  
  2.  */ 
  3. package com.charles.hadoop.fs; 
  4.  
  5.  
  6. import java.net.URI; 
  7.  
  8. import org.apache.hadoop.conf.Configuration; 
  9. import org.apache.hadoop.fs.FSDataInputStream; 
  10. import org.apache.hadoop.fs.FileSystem; 
  11. import org.apache.hadoop.fs.Path; 
  12. import org.apache.hadoop.io.IOUtils; 
  13.  
  14. /** 
  15.  * 
  16.  * Description: 查看Hadoop文件系统中的文件,利用hadoop FileSystem接口中的FSDataInputStream 
  17.  * FSDataInputStream还具有流定位的能力,可以从文件的任意位置开始读取 
  18.  * 
  19.  * @author charles.wang 
  20.  * @created May 26, 2012 12:28:49 PM 
  21.  *  
  22.  */ 
  23. public class ReadFromHadoopFileSystem { 
  24.  
  25.     /** 
  26.      * @param args 
  27.      */ 
  28.     public static void main(String[] args) throws Exception{ 
  29.         // TODO Auto-generated method stub 
  30.          
  31.         //第一个参数传递进来的是hadoop文件系统中的某个文件的URI,以hdfs://ip 的theme开头 
  32.         String uri = args[0]; 
  33.         //读取hadoop文件系统的配置 
  34.         Configuration conf = new Configuration(); 
  35.         conf.set("hadoop.job.ugi""hadoop-user,hadoop-user"); 
  36.          
  37.         //FileSystem是用户操作HDFS的核心类,它获得URI对应的HDFS文件系统 
  38.         FileSystem fs = FileSystem.get(URI.create(uri),conf); 
  39.         FSDataInputStream in = null
  40.         try
  41.             //实验一:输出全部文件内容 
  42.             System.out.println("实验一:输出全部文件内容"); 
  43.             //让FileSystem打开一个uri对应的FSDataInputStream文件输入流,读取这个文件 
  44.             in = fs.open( new Path(uri) ); 
  45.             //用Hadoop的IOUtils工具方法来让这个文件的指定字节复制到标准输出流上 
  46.             IOUtils.copyBytes(in, System.out,50,false);   
  47.             System.out.println(); 
  48.              
  49.              
  50.             //实验二:展示FSDataInputStream文件输入流的流定位能力,用seek进行定位 
  51.             System.out.println("实验二:展示FSDataInputStream文件输入流的流定位能力,用seek进行定位"); 
  52.              
  53.             //假如我们要吧文件输出3次 
  54.             //第一次输入全部内容,第二次输入从第20个字符开始的内容,第3次输出从第40个字符开始的内容 
  55.             for (int i=1;i<=3;i++){ 
  56.                 in.seek(0+20*(i-1)); 
  57.                 System.out.println("流定位第 "+i+" 次:" ); 
  58.                 IOUtils.copyBytes(in, System.out,4096,false);  
  59.             } 
  60.         }finally
  61.             IOUtils.closeStream(in); 
  62.         } 
  63.  
  64.     } 
  65.  
我们传入的命令行参数为我们要读的HDFS文件系统中某文件的URI:

  1. hdfs://192.168.129.35:9000/user/hadoop-user/textfile.txt 
最终输出结果为:

  1. 实验一:输出全部文件内容 
  2. This is a text file edited by charles to test the hadoop distributed file system's features. 
  3.  
  4. 实验二:展示FSDataInputStream文件输入流的流定位能力,用seek进行定位 
  5. 流定位第 1 次: 
  6. This is a text file edited by charles to test the hadoop distributed file system's features. 
  7. 流定位第 2 次: 
  8. edited by charles to test the hadoop distributed file system's features. 
  9. 流定位第 3 次: 
 

 

写操作:

我们用FSDataOutputStream来写文件到HDFS系统中,或者说从本地文件系统中复制文件到HDFS文件系统中。其中这个本地文件系统是相对于运行这段java代码的宿主系统。

代码如下:

  1. /*  
  2.  */ 
  3. package com.charles.hadoop.fs; 
  4.  
  5. import java.io.BufferedInputStream; 
  6. import java.io.FileInputStream; 
  7. import java.io.InputStream; 
  8. import java.io.OutputStream; 
  9. import java.net.URI; 
  10.  
  11. import org.apache.hadoop.conf.Configuration; 
  12. import org.apache.hadoop.fs.FileSystem; 
  13. import org.apache.hadoop.fs.Path; 
  14. import org.apache.hadoop.io.IOUtils; 
  15. import org.apache.hadoop.util.Progressable; 
  16.  
  17. /** 
  18.  * 
  19.  * Description: 这个类展示如何将一个文件从本地文件系统复制到 HDFS 
  20.  * 
  21.  * @author charles.wang 
  22.  * @created May 26, 2012 1:00:39 PM 
  23.  *  
  24.  */ 
  25. public class WriteToHadoopFileSystem { 
  26.  
  27.     /** 
  28.      * @param args 
  29.      */ 
  30.     public static void main(String[] args)throws Exception{ 
  31.         // TODO Auto-generated method stub 
  32.          
  33.         //两个参数分别是本地文件系统的的输入文件路径和HDFS中的输出文件位置 
  34.         //如果这段代码最终运行在Hadoop所在的服务器上,那么本地文件系统是相对于那台服务器的本地文件系统 
  35.         //如果这段代码运行在我们Windows PC上,那么本地文件系统是这台Window PC的文件系统 
  36.         String localSrc = args[0]; 
  37.         String dst= args[1]; 
  38.          
  39.         //因为本地文件系统是基于java.io包的,所以我们创建一个本地文件输入流 
  40.         InputStream in = new BufferedInputStream( new FileInputStream(localSrc)); 
  41.          
  42.         //读取hadoop文件系统的配置 
  43.         Configuration conf = new Configuration(); 
  44.         conf.set("hadoop.job.ugi""hadoop-user,hadoop-user"); 
  45.          
  46.          
  47.         //仍然用FileSystem和HDFS打交道 
  48.         //获得一个对应HDFS目标文件的文件系统
  49.         FileSystem fs = FileSystem.get(URI.create(dst), conf); 
  50.         //创建一个指向HDFS目标文件的输出流 
  51.         OutputStream out = fs.create(new Path(dst) ); 
  52.         //用IOUtils工具将文件从本地文件系统复制到HDFS目标文件中 
  53.         IOUtils.copyBytes(in, out, 4096,true); 
  54.          
  55.         System.out.println("复制完成"); 
  56.          
  57.     } 
  58.  
我们传入2个命令行参数,一个是本地文件系统中被复制的文件路径,第二个要复制到的HDFS文件系统中的目标文件路径:

  1. copyMe.txt
  2. hdfs://192.168.129.35:9000/user/hadoop-user/copyMe.txt
我们去文件系统中去检查文件,果然文件被复制上去了:

打开这个目标文件,果然内容与预期一样:

 

有关Hadoop 利用FileSystem API 执行hadoop文件读写操作的更多相关文章

  1. ruby - 使用 RubyZip 生成 ZIP 文件时设置压缩级别 - 2

    我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看ruby​​zip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d

  2. ruby - 其他文件中的 Rake 任务 - 2

    我试图在一个项目中使用rake,如果我把所有东西都放到Rakefile中,它会很大并且很难读取/找到东西,所以我试着将每个命名空间放在lib/rake中它自己的文件中,我添加了这个到我的rake文件的顶部:Dir['#{File.dirname(__FILE__)}/lib/rake/*.rake'].map{|f|requiref}它加载文件没问题,但没有任务。我现在只有一个.rake文件作为测试,名为“servers.rake”,它看起来像这样:namespace:serverdotask:testdoputs"test"endend所以当我运行rakeserver:testid时

  3. ruby-on-rails - 在 Rails 中将文件大小字符串转换为等效千字节 - 2

    我的目标是转换表单输入,例如“100兆字节”或“1GB”,并将其转换为我可以存储在数据库中的文件大小(以千字节为单位)。目前,我有这个:defquota_convert@regex=/([0-9]+)(.*)s/@sizes=%w{kilobytemegabytegigabyte}m=self.quota.match(@regex)if@sizes.include?m[2]eval("self.quota=#{m[1]}.#{m[2]}")endend这有效,但前提是输入是倍数(“gigabytes”,而不是“gigabyte”)并且由于使用了eval看起来疯狂不安全。所以,功能正常,

  4. ruby-on-rails - Rails 3 中的多个路由文件 - 2

    Rails2.3可以选择随时使用RouteSet#add_configuration_file添加更多路由。是否可以在Rails3项目中做同样的事情? 最佳答案 在config/application.rb中:config.paths.config.routes在Rails3.2(也可能是Rails3.1)中,使用:config.paths["config/routes"] 关于ruby-on-rails-Rails3中的多个路由文件,我们在StackOverflow上找到一个类似的问题

  5. ruby-openid:执行发现时未设置@socket - 2

    我在使用omniauth/openid时遇到了一些麻烦。在尝试进行身份验证时,我在日志中发现了这一点:OpenID::FetchingError:Errorfetchinghttps://www.google.com/accounts/o8/.well-known/host-meta?hd=profiles.google.com%2Fmy_username:undefinedmethod`io'fornil:NilClass重要的是undefinedmethodio'fornil:NilClass来自openid/fetchers.rb,在下面的代码片段中:moduleNetclass

  6. ruby - 将差异补丁应用于字符串/文件 - 2

    对于具有离线功能的智能手机应用程序,我正在为Xml文件创建单向文本同步。我希望我的服务器将增量/差异(例如GNU差异补丁)发送到目标设备。这是计划:Time=0Server:hasversion_1ofXmlfile(~800kiB)Client:hasversion_1ofXmlfile(~800kiB)Time=1Server:hasversion_1andversion_2ofXmlfile(each~800kiB)computesdeltaoftheseversions(=patch)(~10kiB)sendspatchtoClient(~10kiBtransferred)Cl

  7. ruby - 如何将脚本文件的末尾读取为数据文件(Perl 或任何其他语言) - 2

    我正在寻找执行以下操作的正确语法(在Perl、Shell或Ruby中):#variabletoaccessthedatalinesappendedasafileEND_OF_SCRIPT_MARKERrawdatastartshereanditcontinues. 最佳答案 Perl用__DATA__做这个:#!/usr/bin/perlusestrict;usewarnings;while(){print;}__DATA__Texttoprintgoeshere 关于ruby-如何将脚

  8. ruby - 使用 Vim Rails,您可以创建一个新的迁移文件并一次性打开它吗? - 2

    使用带有Rails插件的vim,您可以创建一个迁移文件,然后一次性打开该文件吗?textmate也可以这样吗? 最佳答案 你可以使用rails.vim然后做类似的事情::Rgeneratemigratonadd_foo_to_bar插件将打开迁移生成的文件,这正是您想要的。我不能代表textmate。 关于ruby-使用VimRails,您可以创建一个新的迁移文件并一次性打开它吗?,我们在StackOverflow上找到一个类似的问题: https://sta

  9. Ruby 写入和读取对象到文件 - 2

    好的,所以我的目标是轻松地将一些数据保存到磁盘以备后用。您如何简单地写入然后读取一个对象?所以如果我有一个简单的类classCattr_accessor:a,:bdefinitialize(a,b)@a,@b=a,bendend所以如果我从中非常快地制作一个objobj=C.new("foo","bar")#justgaveitsomerandomvalues然后我可以把它变成一个kindaidstring=obj.to_s#whichreturns""我终于可以将此字符串打印到文件或其他内容中。我的问题是,我该如何再次将这个id变回一个对象?我知道我可以自己挑选信息并制作一个接受该信

  10. ruby - 如何使用 Ruby aws/s3 Gem 生成安全 URL 以从 s3 下载文件 - 2

    我正在编写一个小脚本来定位aws存储桶中的特定文件,并创建一个临时验证的url以发送给同事。(理想情况下,这将创建类似于在控制台上右键单击存储桶中的文件并复制链接地址的结果)。我研究过回形针,它似乎不符合这个标准,但我可能只是不知道它的全部功能。我尝试了以下方法:defauthenticated_url(file_name,bucket)AWS::S3::S3Object.url_for(file_name,bucket,:secure=>true,:expires=>20*60)end产生这种类型的结果:...-1.amazonaws.com/file_path/file.zip.A

随机推荐