草庐IT

HDFS_DATANODE

全部标签

hadoop - 如何从HDFS加载数据到Hive

我正在尝试将数据从HDFS加载到配置单元中。但我观察到数据正在移动,这意味着在将数据加载到配置单元环境后,如果我查看HDFS,我加载的数据不存在。你能用例子回答这个问题吗? 最佳答案 如果你想从HDFS中的数据在Hive中创建一个表而不将数据移动到/user/hive/warehouse/,你应该使用可选的EXTERNAL和LOCATION关键字。例如,来自thispage,我们有以下示例CREATETABLE语句:hive>CREATEEXTERNALTABLEuserline(lineSTRING)ROWFORMATDELIMI

hadoop - 如何在 hdfs 中调用 FS shell

我想在我的电脑上运行hdfs命令。但我无法打开fs外壳。当我尝试命令时hadoopfs-ls命令它给出错误hadoop:找不到命令。apchefsshell指南说我们可以使用调用shellbin/hadoopdfsargs(在hadoop主页内)但是我应该为args部分使用什么?他们在说某种路径,但路径是什么? 最佳答案 嗯,好的,我不确定我是否正确理解了你的问题,但你似乎想像使用任何其他shell命令(如ls、mv、cp等...)。如果你想这样做,你必须像下面这样编辑你的.bash_profile文件:~]$cd~]$vim.ba

hadoop - HBase 和 HDFS 数据分隔符?

我将HBase数据导出到HDFS。我想将Sqoop导出HDFS到MySQL。但是在使用Sqoop导出时,需要我提供HDFS数据是如何分隔的。如何检查HBase表或HDFS数据中的分隔符?编辑1:我将HBase数据导出到HDFS使用bin/hadoopjar/path/to/hbase-0.20.3.jarexportyour_table/export/your_table 最佳答案 就HBase而言,不存在任何分隔符的问题。您的数据存储在HBase表的列中。要知道HDFS文件的分隔符,您可以:使用bin/hadoopfs-cat/p

c++ - : No module named _hdfs_*

我能够毫无错误地构建和安装Pydoop,因此,例如,我可以执行以下操作:>>>importpydoop>>>pydoop.__version__'0.10.0'但是,当我尝试导入主要的Pydoop模块(例如pipes或hdfs)时,我遇到了ImportError:>>>importpydoop.hdfsTraceback(mostrecentcalllast):File"",line1,inFile"pydoop/hdfs/__init__.py",line79,infromfsimporthdfs,default_is_localFile"pydoop/hdfs/fs.py",lin

hadoop - 比较hadoop hdfs中的时间戳

我是hadoop的新手,而且我手头有一个问题。有没有办法比较HDFS中两个文件之间的时间戳?非常感谢任何帮助。 最佳答案 使用FileSystem.getFileStatus(Path)获取FileStatus的方法返回对象,可以通过FileStaus.getModifiedTime()获取文件的修改时间方法FileSystemfs=FileSystem.get(conf);longts1=fs.getFileStatus(newPath("/path/to/file1")).getModifiedTime();longts2=fs

java - 无法使用 URL 协议(protocol)处理程序从 HDFS 获取数据

我在java中运行以下程序时遇到问题(我是java的初学者)。这里的程序使用HDFS特定的URLstreamhandlerfactory来使用适当的协议(protocol)处理程序来访问HDFS。在eclipse中,它没有显示任何错误。我已将hadoop-common-2.2.0.jar放在构建路径中。packageorg.hdfs.prog;//ccURLCatDisplaysfilesfromaHadoopfilesystemonstandardoutputusinga//URLStreamHandlerimportjava.io.InputStream;importjava.ne

Hadoop MapReduce - 程序在文件系统上工作,但在 HDFS 上不工作

这里是Hadoop新手。所以我只是配置了一个单节点设置,我不确定文件应该放在哪里?!我的理解是应该在HDFS上。因此,我使用“将文件上传到DFS”向我的HDFS添加了一个文本文件“zulu.txt”(右键单击DFS;见下图)当我使用Stringinput="/user/irobot-pc/irobot/In/";我收到以下错误代码:输入路径不存在Exceptioninthread"main"org.apache.hadoop.mapreduce.lib.input.InvalidInputException:Inputpathdoesnotexist:file:/user/irobot

hadoop - Namenode如何决定在哪个datanode中写入一个 block

我只是想知道这个。假设我正在将一个80GB的文件复制到HDFS,并且我的block大小是64MB。现在在收集了一个block的数据后,名称节点将block写入数据节点。这是我的问题:名称节点以何种方式选择应将block写入哪个数据节点。是随机选择还是循环选择? 最佳答案 NameNode会根据负载分配因子选择datanode上的block。它将以平衡所有正在运行的数据节点上的负载的方式选择block。此外,NameNode不会收集一个block的数据并将其写入数据节点。当向NameNode发送写请求时,它会分配要写入各个数据节点的b

python - 为什么配置单元试图在 hdfs 中写入/用户?

使用如下所示的简单HiveQL查询:SELECTevent_typeFROM{{table}}wheredt=20140103limit10;{{table}}部分只是通过Jinja2使用的运行器代码插入。我正在使用来自python的subprocess.Popen在配置单元命令行上使用-e标志运行我的查询。出于某种原因,此设置试图写入HDFS中的常规/user目录?Sudo命令无效。产生的错误如下:JobSubmissionfailedwithexception:org.apache.hadoop.security.AccessControlException(Permissiond

hadoop - 在 HDFS 中移动文件的最佳实践或工具

我们正在map-reduce上进行POC以计算我们应用程序的模块使用情况。应用程序在位于单独盒子上的J2EE容器上运行,hadoop安装在单独的盒子上,我们需要将日志文件从应用程序容器盒子移动到hadoop盒子。下面提到的是一些需要帮助/建议的查询。有什么工具/框架可以将日志文件从多个位置移动到HDFS?什么是最佳实践?如何运行移动文件的作业?移动到HDFS应该是cron作业还是文件大小触发器? 最佳答案 您需要ApacheFlume。Flume是一种流行的标准工具,用于将日志文件移动到HadoopHDFS中。它可以作为cron作业