草庐IT

source_filename

全部标签

scala - Source.fromFile 不适用于 HDFS 文件路径

我正在尝试从我的hdfs中读取文件内容,因为我正在使用Source.fromFile()。当我的文件在本地系统中时它工作正常,但当我尝试从HDFS读取文件时抛出错误。objectCheckFile{defmain(args:Array[String]){for(line错误:java.io.FileNotFoundException:hdfs:/quickstart.cloudera:8080/user/cloudera/xxxx/File(Nosuchfileordirectory)我进行了搜索,但找不到任何解决方案。请帮忙 最佳答案

hadoop - fs.rename(newPath(raw FileName), in Path(process FileName)) 不工作

我正在研究基于Scala的ApacheSpark实现,用于将数据从远程位置加载到HDFS,然后将数据从HDFS提取到Hive表。使用我的第一个spark作业,我已将数据/文件载入HDFS中的某个位置-hdfs://sandbox.hortonworks.com:8020/data/analytics/raw/folder让我们考虑一下,在载入CT_Click_Basic.csv和CT_Click_Basic1.csv.gz文件后,我在HDFS中有以下文件[共享位置的文件名将是此处的文件夹名称,其内容将出现在part-xxxxx文件中]:[root@sandbox~]#hdfsdfs-l

hadoop - NiFi : UpdateAttribute to change filename

我使用GetHTTPS-->UpdateAttribute-->PutHDFS流程以便每隔30秒从API读取json文件并将文件放入HDFS。第二步使用当前日期/时间戳更改文件名属性,这样我们就不会发生相同的文件名冲突。到目前为止我已经尝试过:${filename:prepend(${now():format("yyyy-MM-dd-HH:mm:ss")})}这导致:错误PutHDFS由于java.lang.IllegalArgumentException:java.net,无法写入HDFS。URISyntaxException:绝对URI中的相对路径:.2017-08-01-11:0

scala - 创建像 TextLine 这样的 Scalding Source,将多个文件组合成单个映射器

我们有很多小文件需要合并。在Scalding中,您可以使用TextLine将文件读取为文本行。问题是我们每个文件有1个映射器,但我们想要组合多个文件,以便它们由1个映射器处理。我知道我们需要将输入格式更改为CombineFileInputFormat的实现,这可能涉及使用级联CombinedHfs。我们不知道如何做到这一点,但它应该只是几行代码来定义我们自己的Scalding源,例如CombineTextLine。非常感谢任何可以提供代码的人。作为附带问题,我们在s3中有一些数据,如果给定的解决方案适用于s3文件,那就太好了——我想这取决于CombineFileInputFormat还

bash - Hadoop 和 Bash : delete filenames matching range

假设您在HDFS中有一个文件列表,其中包含一个公共(public)前缀和一个递增的后缀。例如,part-1.gz,part-2.gz,part-3.gz,...,part-50.gz我只想在目录中留下几个文件,比如3个。任何三个文件都可以。这些文件将用于测试,因此文件的选择无关紧要。删除其他47个文件的最简单、最快的方法是什么? 最佳答案 这里有几个选项:手动将三个文件移至新文件夹,然后删除旧文件夹。使用fs-ls获取文件名,然后拉出前n个,然后rm它们。在我看来,这是最可靠的方法。hadoopfs-ls/path/to/files

hadoop - 如何将小二进制文件作为元数据 Map<fileName, fileContent> 放入 Parquet 文件?有什么限制吗?

如何将几十个小二进制文件作为元数据放入Parquet文件Map?小文件是平均100KB左右的文档、图片。我们已经将一些短字符串值放入parquet元信息映射中,但是对映射条目的数量、映射的总大小或单个映射值的大小是否有限制?如果有,有什么限制?也许我的目标不太可能违反限制? 最佳答案 希望@Gerardo可以提供一些细节,但官方文档说元素大小没有限制:http://parquet.apache.org/documentation/latest/#types州TypesThetypessupportedbythefileformata

maven - 为什么 Maven 试图将我的代码编译为 -source 1.3?

我在Ubuntu12.04中收到此错误mvn-epackage:[ERROR]Failedtoexecutegoalorg.apache.maven.plugins:maven-compiler-plugin:2.0.2:compile(default-compile)onprojectHadoopSkeleton:Compilationfailure:Compilationfailure:[ERROR]/home/jesvin/dev/hadoop/HadoopMahoutSkeleton-master/src/main/java/HadoopSkeleton/App.java:[2

implementation - Hadoop MR source : HDFS vs HBase. 各有什么好处?

如果我正确理解Hadoop生态系统,我可以运行我的MapReduce作业,从HDFS或HBase获取数据。假设之前的假设是正确的,我为什么要选择一个而不是另一个?使用HBase作为MR源在性能、可靠性、成本或易用性方面是否有优势?我能找到的最好的引用是这句话,“HBase是当您需要对非常大的数据集进行实时读/写随机访问时使用的Hadoop应用程序。”-TomWhite(2009)Hadoop:权威指南,第1版 最佳答案 在HDFS上直接使用HadoopMap/Reduce,您的输入和输出通常存储为平面文本文件或HadoopSeque

hadoop - 为什么每次都需要source bash_profile

我已经安装了Hadoop,每次我想运行它时,首先我必须这样做:source~/.bash_profile否则它不会识别命令hadoop这是为什么?我在OSX10.8上 最佳答案 现在我们已经缩小了问题的范围:在命令行中运行ps-p$$以检查您实际上是否在使用bashshell。意识到您在zsh中,这意味着您应该在.zshrc中编辑您的配置文件。将有问题的行从.bash_profile复制到.zshrc,或者修改您的.zshrc以直接获取您的.bash_profile。更新:执行@TC1在评论中提到的操作,并将特定于shell的代码保

php - 亚马逊 S3 SDK : Change filename on download?

这是生成URL并更改其下载名称的正确方法吗?$s3=newAmazonS3();$opt=array('response'=>array('Content-Disposition'=>'attachment;"filename=newname.txt"'));$url=$s3->get_object_url('bucket','file.txt','5minutes',$opt));显然对我不起作用。 最佳答案 经过多次测试,显然get_object_url要求Content-Disposition参数为小写。请注意,create_