草庐IT

hdfs_clusters

全部标签

hadoop - 在 Hadoop 2.7.2(CentOS 7) Cluster 中,Datanode 启动但没有连接到 namenode

我安装了一个三节点hadoop集群。master和slave节点单独启动,但datanode没有显示在namenodewebUI中。datanode的日志文件显示以下错误:2016-06-1821:23:53,980INFOorg.apache.hadoop.ipc.Client:Retryingconnecttoserver:namenode/192.168.1.100:9000.Alreadytried0time(s);retrypolicyisRetryUpToMaximumCountWithFixedSleep(maxRetries=10,sleepTime=1000MILLI

shell - 在 oozie 工作流 (HUE) 中,如何将参数从 shell 操作传递到 HDFS fs 操作

在我的工作流程中,我有一个shell操作和一个HDFSfs操作ShellAction与日期相呼应。(日期=2016-10-06)我想在HDFSfsactionmkdir路径中设置上面的日期参数。以下是Action定义。我收到以下错误。EL_ERROREncountered"&",expectedoneof[,,,"true","false","null","(",")","-","not","!","empty",] 最佳答案 您需要连接两个字符串以形成完整路径。Stringconcat(Strings1,Strings2)它返回2

hadoop - Confluent HDFS 连接器

我想将kafka日志文件移动到hadoop日志文件。所以我遵循HDFS连接器配置/quickstart-hdfs.propertiesname=hdfs-sinkconnector.class=io.confluent.connect.hdfs.HdfsSinkConnectortasks.max=1topics=kafka_log_testhdfs.url=hdfs://10.100.216.60:9000flush.size=100000hive.integration=truehive.metastore.uris=thrift://localhost:9083schema.co

hadoop - 每次重新启动集群时都无法访问 HDFS 中的文件?

我刚刚配置了一个克隆hadoop版本2.7.3,我加载了我的数据大小从1g到20go,我使用这个数据(可以操作它们......)但是当我重新启动集群时这个数据没有不会被接受。我将收到此消息:警告:大约有xx个缺失block。请检查日志或运行fsck,这意味着您的HDFS安装中的某些block在任何事件DataNode上都没有单个副本。这是hdfs-site.xml:dfs.namenode.name.dirfile:///home/hduser/hadoop-2.7.3/namenodeNameNodedirectoryfornamespaceandtransactionlogssto

java - 将文件写入 Hdfs 时出现 IOException

我正在开发一个程序,该程序从mqtt代理获取gps数据并将其加载到hadoop集群中。在尝试将数据写入hdfs时,我得到了IOException。以下是完整的堆栈跟踪:java.io.IOException:Failedonlocalexception:com.google.protobuf.InvalidProtocolBufferException:Messagemissingrequiredfields:callId,status;HostDetails:localhostis:"quickstart.cloudera/192.168.25.170";destinationhos

hadoop - 只有一个文件从带有水槽的kafka到hdfs

我正在尝试通过水槽将数据从kafka放入hdfs。kafka_producer每10秒发送一条消息。我会在hdfs上的一个文件中收集所有消息。这是我使用的flume配置,但它在hdfs上存储了很多文件(一个用于消息):agent1.sources.kafka-source.type=org.apache.flume.source.kafka.KafkaSourceagent1.sources.kafka-source.zookeeperConnect=localhost:2181agent1.sources.kafka-source.topic=provaagent1.sources.

mysql - 使用 hadoop 将数据从 Mysql 导入到 hdfs 时出错?

我正在尝试使用hadoop将数据从Mysql导入到hdfs,并尝试创建表和数据库是hive。我正在尝试使用以下命令sqoopimport--connectjdbc:mysql://localhost/Mobile--usernameroot--password12345678--tableAccesories--target-dir/user/harsh/Mobile1--fields-terminated-by","--hive-import--create-hive-table--hive-tablemob.custMobile是我的数据库,Accessories是我要导入的表。E

hadoop - 将数据从 HDFS 加载到 Hive 时出现问题

场景1:在配置单元中创建表时提供​​自定义位置,然后使用“从本地复制”命令加载数据。下面的过程是直接将数据加载到我的表中。但是当我使用默认位置使用“从本地复制”命令加载数据时,方案2不起作用。因为它执行时没有任何错误,但没有加载我的表。场景1命令的链接---Scenario1Commands--这是将数据加载到表中。Scenario2Commands--将场景1的位置路径替换为默认配置单元路径--但未加载数据。 最佳答案 使用下面的命令找到文件需要复制到的确切位置hive-e'describeformattedEmployee'如果

hadoop - 无法删除 HDFS 损坏的文件

我无法删除我的HDFS中存在的损坏文件。Namenode已进入安全模式。区block总数为980,其中978已报告。当我运行以下命令时,sudo-uhdfshdfsdfsadmin-report生成的报告是,SafemodeisONConfiguredCapacity:58531520512(54.51GB)PresentCapacity:35774078976(33.32GB)DFSRemaining:32374509568(30.15GB)DFSUsed:3399569408(3.17GB)DFSUsed%:9.50%Underreplicatedblocks:0Blockswit

Hadoop 2.9.0 - hadoop namenode -format 和 hdfs-site.xml dfs.namenode.name.dir

我的第一个问题,我会尽量不把事情搞砸:)出于学习目的,我正在4节点集群上安装Hadoop2.9.0。我已经按照官方ApacheHadoop2.9.0文档和一些谷歌页面开始安装/配置名称节点。我像这样编辑了位于$HADOOP_HOME/etc/hadoop目录下的hdfs-site.xml:dfs.namenode.name.dirfile:///apps/hdfs/namenode/datadfs.datanode.data.dirfile:///apps/hdfs/datanode/datadfs.namenode.checkpoint.dirfile:///apps/hdfs/na