草庐IT

HADOOP_NAMENODE_OPTS

全部标签

java - 如何在 Pig Hadoop 中以简单日期格式 ex "yyyy-MM-dd hh-MM-ss"转换长毫秒

如何将long毫秒转换为simpledate格式ex:yyyy-MM-ddhh-MM-ss在PigHadoop中exampleinput=1409051466000output="yyyy-MM-ddhh-MM-ss"在Pig脚本中。 最佳答案 谢谢krishanthy-mohanachandran。但是我在pig中有很好的脚本。我正在试用并完成。以简单的日期格式转换毫秒yyyy-MM-ddhh-MM-sspig中的脚本:curtime=milisecond-long(1409051466000)为了格式化,我可以将它转换为日期,然

hadoop - 如何在 MRUnit 中使用 avro 参数测试 reducer ?

我正在尝试测试下面的ReducerReducer,AvroKey,NullWritable>出于这些目的,我在测试中使用了下一个代码:CustomReducerreducer=newCustomReducer();reduceDriver=newReduceDriver,AvroKey,NullWritable>();Jobjob=newJob();reduceDriver=ReduceDriver.newReduceDriver(reducer).withConfiguration(job.getConfiguration());reduceDriver.setReducer(red

mongodb - 在 Hadoop MapReduce(使用 Mongo Hadoop 连接器)之后,重复记录被写入 MongoDB

我们在AWSEMR上的Hadoop测试环境1个主节点2个从节点当我们提交一个小测试作业时,它会触发1个maptask。map任务完成后,将触发3个reduce任务。reduce任务完成后,我们的输出数据将写入Mongo集合。但是我们注意到,在某些情况下,输出中有重复的记录。这会导致我们的下游处理任务崩溃,因为它们不需要重复。我注意到的一件事是,其中一个reduce任务有时会被终止,然后由hadoop重新启动-如果它在将数据写入Mongo的过程中被终止,这会导致重复记录吗?有什么方法可以从日志中看出Mongohadoop连接器是否真的在向Mongo写入数据?有什么方法可以确保在提交给Mo

hadoop - 如何在 PIG 中使用 FILTER 获取 for 循环内的匹配值?

将此视为我的输入,Input(File1):12345;1134567;12..Input(File2):11;(1,2,3,4,5,6,7,8,9)12;(9,8,7,6,5,4,3,2,1)..我想得到如下输出:Output:(1,2,3,4,5,6,7,8,9)(9,8,7,6,5,4,3,2,1)这是我尝试使用FILTER的示例代码,我遇到了一些错误。请建议我一些其他选项。data1=load'/File1'usingPigStorage(';')as(id,number);data2=load'/File2'usingPigStorage(';')as(numberInfo,

hadoop - 二级名称节点备份名称节点的默认时间是多少?

二级名称节点备份名称节点的默认时间(定期检查)是多少?我可以编辑的参数是什么? 最佳答案 fs.checkpoint.period,setto1hourbydefault,specifiesthemaximumdelaybetweentwoconsecutivecheckpoints更多信息here.仅供引用……SNN不用于备份来自NN的数据。它用于合并NN上存在的fsImage和编辑文件。 关于hadoop-二级名称节点备份名称节点的默认时间是多少?,我们在StackOverflow上

hadoop - HIVE:应用定界符直到指定的列

我正在尝试将数据从文件移动到配置单元表中。文件中的数据看起来像这样:-StringAStringBStringCStringDStringE其中每个字符串由空格分隔。问题是我想要单独的列用于StringA、StringB和StringC,而一列用于StringD,即StringD和StringE应该属于同一列。如果我使用ROWDELIMITEDBYFIELDSTERMINATEDBY'',Hive将为StringD和StringE生成单独的列。(StringD和StringE本身包含空格,而其他字符串本身不包含空格)hive中是否有任何特殊语法来实现此目的,或者我是否需要以某种方式预处

hadoop - 不耐烦的第 1 部分 gradle 公会的级联失败

我刚刚获得Gradle1.4和Hadoop2.7.0。在我的Ubuntu14.04虚拟机上。我在Impatienttuturial存储库的Cascading的第1部分目录中。当我运行“gradlecleanjar”时,我得到以下信息:FAILURE:Buildfailedwithanexception.*Where:Buildfile'/home/Impatient/build.gradle'line:29*Whatwentwrong:Aproblemoccurredevaluatingrootproject'impatient'.>Couldnotfindmethodjcenter(

hadoop - Impala 并发读取和覆盖

我注意到在一个应用程序中,并发读取(使用无效元数据)和覆盖表会导致底层文件损坏。这是一个已知的场景吗?我预计当表被覆盖时,并发读取会失败,它不会损坏表的底层文件。帮助将不胜感激! 最佳答案 如果文件损坏,不应该是由并发读写引起的。HDFS是只读/附加文件系统,Impala将始终写入新文件。当您插入时,文件被写入暂存目录,Impala在文件完成之前不会读取该目录,此时它们被移动到表/分区目录中。需要考虑的几件事:如果独立于选择运行插入,文件是否正常?腐败是什么意思?它在Hive中有效吗?您运行的是哪个版本的Impala?

sql-server - SQL Server 2012 和 Polybase - 缺少 'Hadoop Connectivity' 配置选项

如标题所述,我正在使用具有Polybase功能的SQLServer2012并行数据仓库来尝试访问HDInisghtHadoop集群。作为从SQLServer到Hadoop的每个连接的起点,我发现执行命令sp_configure@configname='hadoopconnectivity',@configvalue={0|1|2|3|4|5};RECONFIGURE;执行后,我收到以下错误:Theconfigurationoption'hadoopconnectivity'doesnotexist,oritmaybeanadvancedoption.请注意,我将高级选项设置为1(可见)

maven - Apache Hadoop 2.6.0 源代码编译问题

我在64位bitcentos6.5中编译Hadoop2.6.0并收到以下错误消息。谁能帮帮我?环境细节:Jave版本:1.7.0_71-b14Maven版本:ApacheMaven3.2.5开启SSL版本:OpenSSL1.0.x协议(protocol)版本:libprotoc2.5.0Cmake版本:2.8.12.2错误消息详情如下:[INFO]ReactorSummary:[INFO][INFO]ApacheHadoopMain.................................SUCCESS[2.259s][INFO]ApacheHadoopProjectPOM..