草庐IT

hdfs-audit

全部标签

hadoop - 如何将我的数据从本地 HDFS 安全地传输到 Google Cloud Storage?

我在本地HDFS安装中有大量数据。我想将其中一些移动到GoogleCloud(云存储),但我有一些顾虑:我实际上如何移动数据?我担心在公共(public)互联网上移动它将数据从我的HDFS存储安全地移动到CloudStorage的最佳方法是什么? 最佳答案 要将数据从本地Hadoop集群移动到GoogleCloudStorage,您可能应该使用GoogleCloudStorageconnectorforHadoop.您可以按照installdirections在任何集群中安装连接器.请注意,GoogleCloudDataproc集群

file - hadoop -appendToFile 与 hadoop -put 在用于将流数据连续更新到 hdfs 时有什么区别

根据hadoop源代码,从类中提取了以下描述-appendToFile"Appendsthecontentsofallthegivenlocalfilestothegivendstfile.Thedstfilewillbecreatedifitdoesnotexist."放"Copyfilesfromthelocalfilesystemintofs.Copyingfailsifthefilealreadyexists,unlessthe-fflagisgiven.Flags:-p:Preservesaccessandmodificationtimes,ownershipandthemo

hadoop - HDFS复制因子是如何决定的?

HDFS中的复制因子必须至少为3。尽管选择它为3的主要目的是容错,并且机架故障的可能性远小于节点故障的可能性,复制因子至少为3背后还有其他原因吗? 最佳答案 复制因子没有理由必须是3,这是hadoop自带的默认值。您可以为HDFS中的每个文件单独设置复制级别。除了容错之外,拥有副本还允许使用相同数据的作业并行运行。此外,如果有数据的副本,hadoop可以尝试运行同一任务的多个副本,并选择最先完成的副本。如果由于某种原因盒子运行缓慢,这很有用。 关于hadoop-HDFS复制因子是如何决定

hadoop - 如何防止将空 Avro 文件提交到 HDFS?

我的工作是在HDFS中创建一个Avro文件,并在该文件中附加数据。然而,偶尔不会有任何数据追加,在这种情况下我不希望应用程序刷新并关闭文件,而是应该检查文件是否为空(但我假设Avro模式将被写入header所以技术上不是一个空文件)并删除该文件,如果它是空的。这对Avro+HDFS库可行吗? 最佳答案 尝试使用LazyOutputFormat在指定作业的输出格式时。它延迟创建输出,这意味着只有在输出存在时才会创建输出文件。所以不要写这样的东西:job.setOutputFormatClass(TextOutputFormat.cla

大数据技术原理与应用 概念、存储、处理、分析和应用(林子雨)——第三章 分布式文件系统HDFS

第三章分布式文件系统HDFS大数据要解决数据存储问题,所以有了分布式文件系统(DFS),但可能不符合当时的一些应用需求,于是谷歌公司开发了GFS(GooglefileSystem)。GFS是闭源的,而HDFS是对GFS的开源实现。1.GFS和DFS有什么区别?GFS(GoogleFileSystem)和DFS(DistributedFileSystem)都是分布式文件系统,但是它们有以下几个不同点:1.设计目标不同:GFS是为了在大规模集群中处理大型文件而设计的,而DFS更侧重于在多个计算机之间共享和存储文件。2.数据复制策略不同:GFS使用了一种称为“三副本策略”的数据复制策略,即将数据分成

hadoop - 在 HDFS 中创建文件但不附加任何内容

我正在使用HTTP源将JSON文件放入HDFS(单节点SANDBOX)。文件在正确的目录中创建,但没有任何内容附加到文件中。在我开始调试HTTP源之前,你能验证我的flume.conf吗?##################################################################Namethecomponentsonthisagent#################################################################hdfs-agent.sources=httpsourcehdfs-agent.sin

hadoop - HDFS 行为 : Datanodes up but all data goes to one node (using -copyFromLocal)

我有一个集群配置。主人(也是奴隶)两个奴隶复制因子=1我将一个~9GB的文件movies.txt复制到hdfs中:hadoopdfs-copyFromLocalmovies.txt/input/我观察到一半的block被保存到Master,另一半分布在两个slave上。然后我想到使用以下方法格式化hadoop_stores:stop-all.shrm-rf{hadoop_store}/*hdfsnamenode-formatsshslave1rm-rf{hadoop_store}/*hdfsnamenode-formatexitsshslave2rm-rf{hadoop_store}/

hadoop - HDFS(序列文件)中的单个大文件或多个小文件?

目前我正在使用SequenceFile来压缩我们现有的HDFS数据。现在我有两个选项可以将这个序列文件存储为单个大文件,这意味着所有记录都转到这个文件。多个小文件,每个文件的大小与HDFSblock大小(128MB)完全匹配众所周知,HDFS文件存储为block,每个block都到一个映射器。所以我认为当MR处理序列文件时没有什么不同。我知道选项二的唯一缺点是名称节点需要更多开销来维护这些文件,而选项一只有一个文件。我对这两个选项感到困惑,因为我看到太多文章推荐了尽可能使您的HDFS文件大小与block大小匹配。尽可能将小文件合并为一个大文件。任何人都可以指出正确的方法吗?哪个更好?这

hadoop - 在 HDFS 中创建 zip 表

我试过创建不是这样的zip表。CREATETABLEexample_table(|aBIGINT,bBIGINT,vSTRING,dTINYINT)STOREDASTEXTFILELOCATION/path/to/directory/这不是压缩表。我还想用zip创建新表来获取该表的历史记录。我怎样才能用zip创建1个表? 最佳答案 首先设置下面的属性SEThive.exec.compress.output=true;SETmapred.output.compression.type=BLOCK;setmapred.output.co

hadoop - HDFS 数据大小和 Hive 数据大小的差异

我在Hive中有一张表。当我运行命令showtblpropertiesmyTableName时,它给出了以下结果:numFiles12numRows1688092rawDataSize934923162totalSize936611254这意味着rawDataSize为934.92MB,totalSize为936.61MB当我运行命令来计算同一表在HDFS表位置上的数据大小时。[user@server1~]$hdfsdfs-du-h-s/apps/hive/warehouse/test.db/myTableName893.2M/apps/hive/warehouse/test.db/m