草庐IT

Namenode-HDFS

全部标签

hadoop - 在 hive 表下看不到 HDFS 文件中的数据

我必须从oracle表中的数据创建一个配置单元表。我正在做一个sqoop,从而将oracle数据转换为HDFS文件。然后我在HDFS文件上创建一个配置单元表。sqoop成功完成,文件也在HDFS目标目录中生成。然后我在配置单元中运行创建表脚本。表被创建。但它是一个空表,hive表中没有看到任何数据。有人遇到过类似的问题吗? 最佳答案 Hive默认分隔符是ctrlA,如果你没有指定任何分隔符,它将采用默认分隔符。在您的配置单元脚本中添加以下行。以'\t'结尾的行格式分隔字段 关于hadoo

hadoop - 使用 Pig/Python 检查 HDFS avro 格式的字段是否存在

我在HDFS中有一组以Avro格式存储的文件。其中一些有一个名为id:int的列,如下所示{"type":"record","name":"metric","fields":[{"name":"timestamp","type":"long"},{"name":"id","type":"long"},{"name":"metric","type":"string"},{"name":"value","type":"double"}]}我需要标记具有“id”列的文件(输出文件名)。有没有办法在Python中使用Pig/PythonUDF/Pig流或嵌入式Pig来完成它。我已经将Pytho

java - Hadoop HDFS 部署

我试图了解HDFS和variousotherconstituents之间的关系一个典型的Hadoop集群。HDFS是只应该在NameNodes和DataNodes上运行,还是在每个节点类型(MasterNode、SlaveNodes、ZooKeeperNode等)? 最佳答案 读写过程可以引用Hadoop-ThedefinitveGuidebook中的read/write过程。并非所有数据都存储在每个节点上。很少有概念可以经常监视流程并相应地进行交互。请重新审视您的理论概念。快乐学习 关

java - 真正的大数据如何在数据科学家老死之前导入HDFS?

我是Hadoop的新手并且相信我开始看到数据分析(“离线”)与超低延迟的网络应用程序世界有多少不同.我仍在努力理解的一件重要事情是,真正的“大数据”最初是如何进入HDFS的。假设我在各种系统(RDBMS、NoSQL、日志数据等)中存储了500TB的数据。我的理解是,如果我想编写MR作业来查询和分析这些数据,我需要先将其全部导入/摄取到HDFS。但即使我在每个不同的系统和我的Hadoop集群之间有一个1Gbps的网络连接,这也是500TB=500*1000Gb=500,000GB的数据,在1Gbps下,是500,000秒或~138小时将所有数据移植到我的HDFS集群上。差不多一周了。而且

hadoop - Hadoop中的HBASE和HDFS有什么区别?

实际区别是什么,当需要存储数据时应该何时使用另一个? 最佳答案 请阅读此post一个很好的解释。但一般来说,HBASE运行在HDFS之上。HDFS是一个分布式文件系统,就像任何其他文件系统(Unix/Windows)一样,而HBASE就像一个数据库,它像任何其他数据库(MySQL、MSSQL)一样从该文件系统读取和写入。 关于hadoop-Hadoop中的HBASE和HDFS有什么区别?,我们在StackOverflow上找到一个类似的问题: https://

hadoop - 如何关闭你的namenode?

如何在CentOs上的Hadoop1.2.1中关闭您的Namenode并将您的namenode与Datanode实例交换,我还必须确保在此过程中没有数据丢失。我在主节点、从节点1和从节点2上使用Hadoop1.2.1。我正在寻找Unix命令或我需要在配置文件中进行的更改。如有需要,请询问任何具体细节! 最佳答案 您可以备份名称节点元数据并终止名称节点。在其他感兴趣的节点上安装名称节点包,并将元数据的备份副本放在名称节点数据目录中。现在启动名称节点,这应该会获取您的旧元数据。请记住更改所有配置文件中的名称节点详细信息。

hadoop - 是否可以将一个 oozie 操作的输出用于其他操作而无需从 hdfs 保存和加载?子工作流选项在这方面有用吗?

我必须编写一个运行多个pig操作的oozie工作流。这些pig操作可能相互依赖。我的意思是一个pig脚本的输出将对其他脚本有用。我想避免从hdfs进行多次保存和加载。这是如何实现的?我可以使用TEZDAG将DAG结构中的所有pig脚本组合起来,并从Oozie运行一个JavaAction吗? 最佳答案 在oozie中,你不能将一个节点的输出传递到另一个节点(不存储在HDFS中)。您可以实现PigServer(pigjavaAPI)来执行多个pig脚本。在一个使用pigserver的java程序中,它总是很容易满足您的要求。

hadoop - pig @hadoop : processing local files without hdfs with multiple cores

如果我在本地模式下运行pig@hadoop(因为我不想使用hdfs),那么它会在单线程/单进程模式下处理我的脚本。如果我将hadoop设置为伪模式(hdfswithreplication=1),那么pig@hadoop不喜欢我的file:///...:traj=LOAD'file:///root/traj'USINGorg.apache.pig.piggybank.storage.CSVExcelStorage(';','NO_MULTILINE','UNIX','SKIP_INPUT_HEADER')AS(a1:chararray,a2:long,a3:long,a4:float,a

hadoop - 使用不在 hdfs 中的文件

我有服务器的root访问权限,安装了hadoop和hive。但是,尽管我有root权限,但我无法将数据从文件系统复制到hdfs:root@serv:~#hadoopfs-putflume_test/logs/userput:Permissiondenied:user=root,access=WRITE,inode="/user":hdfs:supergroup:drwxr-xr-x我尝试了不同的方法从文件flume_test/logs创建表,它不在hdfs中。例如:CREATETABLEnatlog_orc(src_local_ipSTRING,time_startSTRING,tim

hadoop - 清除hdfs中的/tmp目录

这是否正确,hdfs中的/tmp目录每24小时自动清除一次(默认情况下)? 最佳答案 HDFS/tmp目录主要用作mapreduce运行时的临时存储。Mapreduce工件、中间数据等将保存在此目录下。当mapreduce作业执行完成时,这些文件应该被自动清除。如果删除此临时文件,可能会影响当前正在运行的mapreduce作业。临时文件由pig创建。临时文件删除发生在最后。如果脚本执行已归档或终止,Pig不会处理临时文件删除。然后你必须处理这种情况。您最好在脚本本身中处理此临时文件清理事件。