草庐IT

hdfs-audit

全部标签

hadoop - hdfs 数据已损坏。无法删除损坏的文件夹,因为它显示没有这样的文件或目录

我的hdfs数据损坏了。在执行fsck时,我得到了以下结果./siva:损坏blockblk_-1910702044505537827/siva:损坏blockblk_6483992593913191763/siva:缺少2个总大小为82009995的blockB.Status:损坏总尺寸:82009995B目录总数:8文件总数:1区block总数(已验证):2(平均区block大小41004997B)损坏文件:1缺失的方block:2缺失尺码:82009995B损坏block:2最少复制block:0(0.0%)过度复制block:0(0.0%)复制不足的block:0(0.0%)错

hadoop - datanode在hdfs下没有 "namenode"目录

所以我有一个小型Hadoop集群,其中有1个主服务器和5个工作服务器。我的masters和workers的hdfs-site.xml看起来像这样:dfs.replication3dfs.namenode.name.dirfile:/home/username/hadoop/yarn/hdfs/namenodedfs.datanode.data.dirfile:/home/username/hadoop/yarn/hdfs/datanode我的集群运行平稳,所有守护进程运行良好。我能够访问HDFS以导入、导出数据、运行字数统计作业等......但是在我的工作人员中,“/home/user

java - hdfs dfs -ls 的默认值

为什么hdfsdfs-ls与hdfsdfs-ls/不同。hdfsdfs-ls的默认值是多少 最佳答案 默认是您的hdfs用户的主目录,类似于/user/$USER(其中$USER是您在shell中登录的用户,与hdfs无关)。 关于java-hdfsdfs-ls的默认值,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/36184034/

shell - 在 oozie 工作流 (HUE) 中,如何将参数从 shell 操作传递到 HDFS fs 操作

在我的工作流程中,我有一个shell操作和一个HDFSfs操作ShellAction与日期相呼应。(日期=2016-10-06)我想在HDFSfsactionmkdir路径中设置上面的日期参数。以下是Action定义。我收到以下错误。EL_ERROREncountered"&",expectedoneof[,,,"true","false","null","(",")","-","not","!","empty",] 最佳答案 您需要连接两个字符串以形成完整路径。Stringconcat(Strings1,Strings2)它返回2

hadoop - Confluent HDFS 连接器

我想将kafka日志文件移动到hadoop日志文件。所以我遵循HDFS连接器配置/quickstart-hdfs.propertiesname=hdfs-sinkconnector.class=io.confluent.connect.hdfs.HdfsSinkConnectortasks.max=1topics=kafka_log_testhdfs.url=hdfs://10.100.216.60:9000flush.size=100000hive.integration=truehive.metastore.uris=thrift://localhost:9083schema.co

hadoop - 每次重新启动集群时都无法访问 HDFS 中的文件?

我刚刚配置了一个克隆hadoop版本2.7.3,我加载了我的数据大小从1g到20go,我使用这个数据(可以操作它们......)但是当我重新启动集群时这个数据没有不会被接受。我将收到此消息:警告:大约有xx个缺失block。请检查日志或运行fsck,这意味着您的HDFS安装中的某些block在任何事件DataNode上都没有单个副本。这是hdfs-site.xml:dfs.namenode.name.dirfile:///home/hduser/hadoop-2.7.3/namenodeNameNodedirectoryfornamespaceandtransactionlogssto

java - 将文件写入 Hdfs 时出现 IOException

我正在开发一个程序,该程序从mqtt代理获取gps数据并将其加载到hadoop集群中。在尝试将数据写入hdfs时,我得到了IOException。以下是完整的堆栈跟踪:java.io.IOException:Failedonlocalexception:com.google.protobuf.InvalidProtocolBufferException:Messagemissingrequiredfields:callId,status;HostDetails:localhostis:"quickstart.cloudera/192.168.25.170";destinationhos

hadoop - 只有一个文件从带有水槽的kafka到hdfs

我正在尝试通过水槽将数据从kafka放入hdfs。kafka_producer每10秒发送一条消息。我会在hdfs上的一个文件中收集所有消息。这是我使用的flume配置,但它在hdfs上存储了很多文件(一个用于消息):agent1.sources.kafka-source.type=org.apache.flume.source.kafka.KafkaSourceagent1.sources.kafka-source.zookeeperConnect=localhost:2181agent1.sources.kafka-source.topic=provaagent1.sources.

mysql - 使用 hadoop 将数据从 Mysql 导入到 hdfs 时出错?

我正在尝试使用hadoop将数据从Mysql导入到hdfs,并尝试创建表和数据库是hive。我正在尝试使用以下命令sqoopimport--connectjdbc:mysql://localhost/Mobile--usernameroot--password12345678--tableAccesories--target-dir/user/harsh/Mobile1--fields-terminated-by","--hive-import--create-hive-table--hive-tablemob.custMobile是我的数据库,Accessories是我要导入的表。E

hadoop - 将数据从 HDFS 加载到 Hive 时出现问题

场景1:在配置单元中创建表时提供​​自定义位置,然后使用“从本地复制”命令加载数据。下面的过程是直接将数据加载到我的表中。但是当我使用默认位置使用“从本地复制”命令加载数据时,方案2不起作用。因为它执行时没有任何错误,但没有加载我的表。场景1命令的链接---Scenario1Commands--这是将数据加载到表中。Scenario2Commands--将场景1的位置路径替换为默认配置单元路径--但未加载数据。 最佳答案 使用下面的命令找到文件需要复制到的确切位置hive-e'describeformattedEmployee'如果