草庐IT

hadoop-examples

全部标签

hadoop - 我能否确保新的 Hadoop 任务将在输入文件中失败任务停止的位置恢复?

我正在运行Hadoop2.7.2。假设有10个Hadoop任务正在运行,并且每个任务正在处理1个HDFS输入文本文件。假设其中一项任务失败,比如在读取HDFS输入文件file05的第566行时。默认情况下会发生什么?Hadoop的第二次任务尝试会在file05的第567行恢复吗?或者第二个任务尝试会从file05的第一行开始吗?根据用例,我可能想从失败处理停止的地方继续。或者,在不同的情况下,我可能想要重新开始处理该文件。我该怎么做才能确保Hadoop的第二次任务尝试在file05的第567行继续?我该怎么做才能确保第二个任务尝试从file05的第一行开始?

hadoop - hdfs 和 hive 有什么关系?

我有psudeo分布式hadoop环境,使用sqoop和hive进行数据导入和分析。我使用sqoop将数据从mysql导入到hive并且它工作正常,我在我的hive位置获取了数据,即/user/hive/warehouse/我可以看到hive中的数据表。我的疑问是:当我从mysql导入到hive(构建在hadoop之上)时,数据会存储在hadoop中吗?为什么它在我的hdfs中创建/user/hive/warehouse?Hive如何处理数据?如果我在mysql中更新数据,我可以使用sqoop增量导入来更新hdfs中的数据,但如果我直接使用hive导入,它将反射(reflect)在hi

hadoop - 如何将日期添加到我的 hbase 快照

我试图每天备份我的hbase表,如何在我的hbase快照中包含日期和时间?我想要这种格式的快照-'tablename-dd-mm-yyhh:mm:ss'。如果有人有shell脚本,请分享 最佳答案 用它来创建你需要的后缀hadoop@my-hadoop:~$suffix=$(date)#createwhateverformatyouneedhadoop@my-hadoop:~$echo"suffixis${suffix}"使用它来创建快照hadoop@my-hadoop:~$echo"snapshot'myTable','myTab

hadoop - Hive - 在不知道列名的情况下更改所有列的列类型

给定格式表:hive>describetableA;OKidinttstimestampvarfloat......我想使用类似于theone的解决方案由@interskh讨论在不知道并显式引用列名称的情况下将所有列转换为字符串。在语法行上:ALTERTABLEtableACHANGE>string 最佳答案 据我所知,您必须逐一更改列的数据类型。根据官方文档,您不能在单个查询中更改所有列的名称或数据类型。请引用this我最近回答的问题。 关于hadoop-Hive-在不知道列名的情况下

java - 将 hadoop 连接到 neo4j

我想将一个GML文件(Graphml文件)从hadoop导入到neo4j,为此我需要在hadoop和neo4j之间建立连接,我检查了neo4j站点但没有找到任何东西:https://neo4j.com/developer/apache-hadoop/这就是他们所说的hadoop和neo4j之间的连接:InthepastthereweresomeapproachesthatusedHadooptoquicklygenerate`Neo4jdatastoresdirectly.Whilethisapproachisperformant,itisalsotightlycoupledtothe

hadoop - 如何比较 PIG 中的两列并删除任何相同的值,无论大写/小写

我有3列,一个id列和2个名称列。有时2个名称列的值相同,但其中一个在一列中为大写,而在另一列中为小写。如何删除值相同(或具有相似字符)但大小写不同的值?例如:a=加载txt文件a=foreacha生成id,name1,name2当前输出:id1,james,JAMESid2,tom,Tomid3,Jim,Bobid4,Bill,billy预期输出:下面只有这1个结果a=比较name1和name2,如果name1中有任何相似的字符也在name2中,则将其过滤掉id3,吉姆,鲍勃感谢您的帮助! 最佳答案 假设您已经将数据加载到关系A中

hadoop - 在 PIG 中如何删除相似值

在我的pig脚本中,我有一个country1和country2的列以及一个id。在我的国家/地区字段中,一些值类似于以下内容。如何过滤掉至少有2个连续相同字符的相似值?例如:a=loadfilea=generateid,country1,country2输出:id1,us,usaid2,gb,gbaid3,in,indid4,in,usaexpectedoutput:id4,in,usa 最佳答案 使用SUBSTRING获取第3列的前两个字符并将其与第2列的值进行比较。B=FILTERABY(LOWER(A.$1)!=SUBSTRI

hadoop - 如何在 Hive 中使用使用 Apache Drill 创建的 Parquet 文件

ApacheDrill有一个很好的功能,可以从许多传入的数据集中制作parquet文件,但似乎没有很多关于以后如何使用这些parquet文件的信息——特别是在Hive中。Hive有没有办法利用那些“1_0_0.parquet”等文件?也许创建一个表并从parquet文件加载数据,或者创建一个表并以某种方式将这些parquet文件放入hdfs以便Hive读取它? 最佳答案 我遇到过这个问题,如果您使用的是Cloudera发行版,则可以使用impala创建表(Impala和Hive共享metastore),它允许从parquet文件创建

hadoop - 想要保持 hadoop 奴隶的用户名@主机名不同

我正在设置一个hadoop-2.7.3多节点集群。为了添加从属节点,我编辑了从属文件和/etc/hosts文件。我还向它们添加了sshkey现在,在执行start-dfs.sh之后,hadoop连接到user1@myStyle,也就是我,到这里为止一切正常。但是现在不是连接到名称为user2@node1的其他节点,而是连接到不存在的user1@node1。那么,如何连接到user2@node1而不是user1@node1OS:-Ubuntu16.04HadoopVersion:-2.7.3 最佳答案 第一步:slaves文件必须包含

hadoop - 尝试更改配置单元中的列类型,运行 DDL,但抛出错误“

尝试更改hive中的cloumn类型,运行DDL,但抛出错误运行以下DDL:ALTERTABLEINV.HTL_RATE_PLANCHANGERATE_PLAN_RSTRCT_STRT_DTRATE_PLAN_RSTRCT_STRT_DTDATECOMMENT'Advancebookingalternatedaysrestrictionruleappliedtoaratecategory.Thisruledictatestheminimumnumberofdaysbeforearrivaltheguestmustbookfortheratecategorytobeavailable.'