草庐IT

Elastic-Job

全部标签

hadoop - always Hive Job 在进程内运行本地 Hadoop

当我在hive-site.xml中设置这个属性时hive.exec.mode.local.autofalseHive始终在本地运行hadoop作业。Totaljobs=1LaunchingJob1outof1Numberofreducetasksnotspecified.Estimatedfrominputdatasize:55Jobrunningin-process(localHadoop)为什么会这样? 最佳答案 如HIVE-2585中所述,前进Hive将假定metastore在localmode运营如果配置属性hive.met

hadoop - flink streaming job中如何读写HBase

如果我们必须在流式应用程序中读取和写入HBASE,我们该怎么做。我们通过open方法打开连接进行写入,我们如何打开连接进行读取。objecttest{if(args.length!=11){//printargsSystem.exit(1)}valArray()=argsprintln("ParametersPassed"+...);valenv=StreamExecutionEnvironment.getExecutionEnvironmentvalproperties=newProperties()properties.setProperty("bootstrap.servers"

hadoop - 如何在 Hadoop 中刷新 job.submission.protocol.acl 的服务 ACL

我正在使用Cloudera的HadoopCDH发行版,并且最近从CDH3升级到了CDH4。在CDH3中,我曾经能够将用户名添加到hadoop-policy.xml中,用于:security.client.protocol.aclsecurity.job.submission.protocol.acl然后运行:hadoopdfsadmin-refreshServiceAclhadoopmradmin-refreshServiceAcl而且,瞧,用户可以访问HDFS并运行MR作业。自从升级到CDH4后,现在添加了第一个用户,看起来有些东西发生了变化。仍然在hadoop-policy.xml

amazon-web-services - 使用 Elastic MapReduce 进行文件处理 - 没有 Reducer 步骤?

我在S3目录中有大量文本文件。对于每个文本文件,我想应用一个函数(通过Bootstrap加载的可执行文件),然后将结果写入S3输出目录中另一个同名的文本文件。所以在我的MapReduce作业中没有明显的reducer步骤。我曾尝试使用NONE作为我的reducer,但输出目录中充满了part-00000、part-00001等文件。而且这些文件的数量比我输入目录中的文件还要多;每个部分文件只代表一个处理过的片段。如有任何建议,我们将不胜感激。 最佳答案 Hadoop提供了一个名为IdentityReducer的缩减器。Identit

java - 错误 :(63, 40) java : incompatible types: org. apache.hadoop.mapreduce.Job 无法转换为 org.apache.hadoop.mapred.JobConf

我只是在intelljIDE中运行一个简单的hadooop程序。但是当我尝试编译时出现错误$Error:(63,40)java:incompatibletypes:org.apache.hadoop.mapreduce.Jobcannotbeconvertedtoorg.apache.hadoop.mapred.JobConf这是我的这个小程序的代码:importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;impor

hadoop - 从 Hadoop Job Tracker Web 界面访问 EMR 任务日志

我已经为我的主/从节点打开了EC2安全组,这样我就可以从我的本地浏览器访问作业跟踪器界面。我使用http://MASTER-IP:9100连接到它。一切正常,直到我尝试从任务详细信息访问任务跟踪器日志-http://ec2-xx-xx-xx-xx.compute-1.amazonaws.com:9100/taskdetails.jsp?tipid=task_201212181113_0001_m_000000我得到的链接指向内部EC2IP地址,因此我无法从我的本地计算机访问它们(链接为http://10.116.xxx.xx:9103/tasklog?attemptid=attempt

C#-运行Hadoop_job-报错(C#)

当我从本地计算机运行Mapreducer作业时出现以下错误。NullObjectCannotbeconvertedtoavaluetypeonthefollowingline:varresult=hadoop.MapReduceJob.ExecuteJob(); 最佳答案 我在另一个hadoop项目上遇到了同样的错误,我认为映射器类中某处存在异常,所以只在映射器方法中使用trycatch并开始工作。 关于C#-运行Hadoop_job-报错(C#),我们在StackOverflow上找到

hadoop - Mesos 和 Hadoop : How to get the running job input data size?

我在Mesos0.14上运行Hadoop1.2.1。我的目标是记录输入数据大小、运行时间、cpu使用情况、内存使用情况等,以便稍后进行优化。除了数据大小之外,所有这些都是使用Sigar获得的。有什么方法可以获取正在运行的任何作业的输入数据大小?例如,当我运行hadoop示例的terasort时,我需要在作业实际运行之前获取teragen生成的数据大小。如果我正在运行Wordcountexample,我需要获取wordcount输入文件大小。我需要自动获取数据大小,因为我无法知道稍后将在该框架内运行什么作业。我正在使用Java编写一些mesos库代码。最好,我想在MesosExecuto

hadoop - 通过 Oozie HDP 2.1 的作业不创建 job.splitmetainfo

当尝试执行一个sqoop作业时,我的Hadoop程序在-jarFiles参数中作为jar文件传递​​,执行失败并出现以下错误。似乎没有任何解决方案。具有相同Hadoop用户的其他作业正在成功执行。org.apache.hadoop.yarn.exceptions.YarnRuntimeException:java.io.FileNotFoundException:Filedoesnotexist:hdfs://sandbox.hortonworks.com:8020/user/root/.staging/job_1423050964699_0003/job.splitmetainfoa

hadoop - Amazon Elastic Mapreduce 默认配置

Hadoop默认配置(core-site.xml、yarn-site.xml等)是否由Amazon发布?我看到了一些已发布的参数,但没有看到全部默认配置。 最佳答案 您将在以下链接的amazonemr文档页面找到默认配置http://docs.aws.amazon.com/ElasticMapReduce/latest/DeveloperGuide/TaskConfiguration_H2.html您可以找到触发作业的配置。您可以访问保存日志的S3位置。在那里你会找到j-yourjoblogsfilelocation/jobs/jo