草庐IT

hadoop - 无法从 Pig Latin 的 Hadoop HDFS 加载文件

coder 2024-01-08 原文

我在尝试从文件加载 csv 时遇到问题。我不断收到以下错误:

Input(s):
Failed to read data from "hdfs://localhost:9000/user/der/1987.csv"

Output(s):
Failed to produce result in                 "hdfs://localhost:9000/user/der/totalmiles3"

查看我安装在本地计算机上的 Hadoop hdfs,我看到了该文件。事实上,该文件位于多个位置,例如/、/user/等。

hdfs dfs -ls /user/der
Found 1 items
-rw-r--r--   1 der supergroup  127162942 2015-05-28 12:42 
/user/der/1987.csv

我的 pig 脚本如下:

records = LOAD '1987.csv' USING PigStorage(',') AS
       (Year, Month, DayofMonth, DayOfWeek, DepTime, CRSDepTime, ArrTime,
         CRSArrTime, UniqueCarrier, FlightNum, TailNum,ActualElapsedTime,
      CRSElapsedTime,AirTime,ArrDelay, DepDelay, Origin, Dest,
         Distance:int, TaxIn, TaxiOut, Cancelled,CancellationCode,
          Diverted, CarrierDelay, WeatherDelay, NASDelay,     SecurityDelay,
     lateAircraftDelay);
milage_recs= GROUP records ALL;
tot_miles = FOREACH milage_recs GENERATE SUM(records.Distance);
STORE tot_miles INTO 'totalmiles3';

我使用 -x 本地选项运行 pig。我能够使用 -x local 选项从我的本地硬盘读取文件。得到了正确的答案,并且 Hadoop namenode 上的 tail -f 没有滚动,这证明我在本地硬盘上运行了所有文件:

pig  -x local totalmiles.pig

现在我收到错误。似乎 hadoop 名称服务器正在收到请求,因为我使用了 tail -f 并看到日志滚动。

pig totalmiles.pig

records = LOAD '/user/der/1987.csv' USING PigStorage(',') AS

我收到以下错误:

Failed Jobs: 
  JobId Alias   Feature Message Outputs 
    job_local602774674_0001 milage_recs,records,tot_miles           
GROUP_BY,COMBINER   Message: ENOENT: No such file or directory 

        at  
org.apache.hadoop.io.nativeio.NativeIO$POSIX.chmodImpl(Native     Method) 

    at        
org.apache.hadoop.io.nativeio.NativeIO$POSIX.chmod(NativeIO.java:230) 

at         org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.j
    ava:724) 
    at     


org.apache.hadoop.fs.FilterFileSystem.setPermission(FilterFileSystem.java:    502) 
        at org.apache.hadoop.fs.FileSystem.mkdirs(FileSys   tem.java:600) 
    at     
org.apache.hadoop.mapreduce.JobResourceUploader.uploadFiles(JobResourceUpl
    oader.java:94) 
        at      
org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitte
   r.java:98) 
    at      org .apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:193) 

...blah...

Input(s): 
Failed to read data from "/user/der/1987.csv" 

Output(s): 
Failed to produce result in "hdfs://localhost:9000/user/der/totalmiles3" 

我使用 hdfs 通过 mkdir 检查权限,这似乎没问题:

hdfs dfs -mkdir /user/der/temp2 
hdfs dfs -ls /user/der 

Found 3 items 
-rw-r--r--   1 der supergroup  127162942 2015-05-28 12:42  
/user/der/1987.csv 
drwxr-xr-x   - der supergroup          0 2015-05-28 16:21     
/user/der/temp2 
drwxr-xr-x   - der supergroup          0 2015-05-28 15:57 
/user/der/test 

我尝试了带有 mapreduce 选项的 pig ,但仍然得到相同类型的错误:

 pig -x mapreduce totalmiles.pig

 5-05-28 20:58:44,608 [JobControl] INFO  
  org.apache.hadoop.mapreduce.lib.jobc
    ontrol.ControlledJob - PigLatin:totalmiles.pig while            
  submitting 

    ENOENT: No such file or directory
        at 
org.apache.hadoop.io.nativeio.NativeIO$POSIX.chmodImpl(Na       at         
org.apache.hadoop.io.nativeio.NativeIO$POSIX.chmod(NativeIO.java:230)
at 

org.apache.hadoop.fs.RawLocalFileSystem.setPermissi     at  
org.apache.hadoop.fs.FilterFileSystem.setPermission(FilterFileSy
at org.apache.hadoop.fs.FileSystem.mkdirs(FileSystem.java:600)
at     
org.apache.hadoop.mapreduce.JobResourceUploader.uploadFiles(Job
at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(Jo
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobS
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)

我的 core-site.xml 的临时 dir 如下:

<property>
      <name>hadoop.tmp.dir</name>
     <value>/usr/local/hadoop</value>
      <description>A base for other temporary directories.    
</description>
 </property>

和我的hdfs-site.xml作为namenodedatanode如下:

 <property>
     <name>dfs.namenode.name.dir</name>  
     <value>file:/usr/local/hadoop/dfs/namenode</value>
  </property>





 <property> 
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/dfs/datanode</value>
    </property>

我在调试问题方面取得了一些进展。看来我的名称节点配置错误,因为我无法重新格式化它:

[ hadoop hdfs formatting gets error failed for Block pool ]

最佳答案

我们必须将 hadoop 文件路径指定为:/user/der/1987.csv

 records = LOAD '/user/der/1987.csv' USING PigStorage(',') AS
   (Year, Month, DayofMonth, DayOfWeek, DepTime, CRSDepTime, ArrTime,
     CRSArrTime, UniqueCarrier, FlightNum, TailNum,ActualElapsedTime,
  CRSElapsedTime,AirTime,ArrDelay, DepDelay, Origin, Dest,
     Distance:int, TaxIn, TaxiOut, Cancelled,CancellationCode,
      Diverted, CarrierDelay, WeatherDelay, NASDelay,     SecurityDelay,
 lateAircraftDelay);

如果用于测试,您可以在执行 pig 脚本的路径中包含文件:1987.csv,即在同一位置包含 1987.csv 和 .pig 文件。

关于hadoop - 无法从 Pig Latin 的 Hadoop HDFS 加载文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30516226/

有关hadoop - 无法从 Pig Latin 的 Hadoop HDFS 加载文件的更多相关文章

  1. ruby - 使用 RubyZip 生成 ZIP 文件时设置压缩级别 - 2

    我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看ruby​​zip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d

  2. ruby - 其他文件中的 Rake 任务 - 2

    我试图在一个项目中使用rake,如果我把所有东西都放到Rakefile中,它会很大并且很难读取/找到东西,所以我试着将每个命名空间放在lib/rake中它自己的文件中,我添加了这个到我的rake文件的顶部:Dir['#{File.dirname(__FILE__)}/lib/rake/*.rake'].map{|f|requiref}它加载文件没问题,但没有任务。我现在只有一个.rake文件作为测试,名为“servers.rake”,它看起来像这样:namespace:serverdotask:testdoputs"test"endend所以当我运行rakeserver:testid时

  3. ruby-on-rails - 在 Rails 中将文件大小字符串转换为等效千字节 - 2

    我的目标是转换表单输入,例如“100兆字节”或“1GB”,并将其转换为我可以存储在数据库中的文件大小(以千字节为单位)。目前,我有这个:defquota_convert@regex=/([0-9]+)(.*)s/@sizes=%w{kilobytemegabytegigabyte}m=self.quota.match(@regex)if@sizes.include?m[2]eval("self.quota=#{m[1]}.#{m[2]}")endend这有效,但前提是输入是倍数(“gigabytes”,而不是“gigabyte”)并且由于使用了eval看起来疯狂不安全。所以,功能正常,

  4. ruby-on-rails - 由于 "wkhtmltopdf",PDFKIT 显然无法正常工作 - 2

    我在从html页面生成PDF时遇到问题。我正在使用PDFkit。在安装它的过程中,我注意到我需要wkhtmltopdf。所以我也安装了它。我做了PDFkit的文档所说的一切......现在我在尝试加载PDF时遇到了这个错误。这里是错误:commandfailed:"/usr/local/bin/wkhtmltopdf""--margin-right""0.75in""--page-size""Letter""--margin-top""0.75in""--margin-bottom""0.75in""--encoding""UTF-8""--margin-left""0.75in""-

  5. ruby-on-rails - Rails 3 中的多个路由文件 - 2

    Rails2.3可以选择随时使用RouteSet#add_configuration_file添加更多路由。是否可以在Rails3项目中做同样的事情? 最佳答案 在config/application.rb中:config.paths.config.routes在Rails3.2(也可能是Rails3.1)中,使用:config.paths["config/routes"] 关于ruby-on-rails-Rails3中的多个路由文件,我们在StackOverflow上找到一个类似的问题

  6. ruby - 将差异补丁应用于字符串/文件 - 2

    对于具有离线功能的智能手机应用程序,我正在为Xml文件创建单向文本同步。我希望我的服务器将增量/差异(例如GNU差异补丁)发送到目标设备。这是计划:Time=0Server:hasversion_1ofXmlfile(~800kiB)Client:hasversion_1ofXmlfile(~800kiB)Time=1Server:hasversion_1andversion_2ofXmlfile(each~800kiB)computesdeltaoftheseversions(=patch)(~10kiB)sendspatchtoClient(~10kiBtransferred)Cl

  7. ruby - 如何将脚本文件的末尾读取为数据文件(Perl 或任何其他语言) - 2

    我正在寻找执行以下操作的正确语法(在Perl、Shell或Ruby中):#variabletoaccessthedatalinesappendedasafileEND_OF_SCRIPT_MARKERrawdatastartshereanditcontinues. 最佳答案 Perl用__DATA__做这个:#!/usr/bin/perlusestrict;usewarnings;while(){print;}__DATA__Texttoprintgoeshere 关于ruby-如何将脚

  8. ruby - 使用 Vim Rails,您可以创建一个新的迁移文件并一次性打开它吗? - 2

    使用带有Rails插件的vim,您可以创建一个迁移文件,然后一次性打开该文件吗?textmate也可以这样吗? 最佳答案 你可以使用rails.vim然后做类似的事情::Rgeneratemigratonadd_foo_to_bar插件将打开迁移生成的文件,这正是您想要的。我不能代表textmate。 关于ruby-使用VimRails,您可以创建一个新的迁移文件并一次性打开它吗?,我们在StackOverflow上找到一个类似的问题: https://sta

  9. ruby-on-rails - 无法使用 Rails 3.2 创建插件? - 2

    我对最新版本的Rails有疑问。我创建了一个新应用程序(railsnewMyProject),但我没有脚本/生成,只有脚本/rails,当我输入ruby./script/railsgeneratepluginmy_plugin"Couldnotfindgeneratorplugin.".你知道如何生成插件模板吗?没有这个命令可以创建插件吗?PS:我正在使用Rails3.2.1和ruby​​1.8.7[universal-darwin11.0] 最佳答案 随着Rails3.2.0的发布,插件生成器已经被移除。查看变更日志here.现在

  10. ruby - 无法运行 Rails 2.x 应用程序 - 2

    我尝试运行2.x应用程序。我使用rvm并为此应用程序设置其他版本的ruby​​:$rvmuseree-1.8.7-head我尝试运行服务器,然后出现很多错误:$script/serverNOTE:Gem.source_indexisdeprecated,useSpecification.Itwillberemovedonorafter2011-11-01.Gem.source_indexcalledfrom/Users/serg/rails_projects_terminal/work_proj/spohelp/config/../vendor/rails/railties/lib/r

随机推荐