草庐IT

my_launch

全部标签

hadoop - 亚马逊弹性 MapReduce : the number of launched map task

在MapReduce作业流程步骤的“系统日志”中,我看到以下内容:JobCountersLaunchedreducetasks=4Launchedmaptasks=39启动的maptask数是否包含失败的任务?我使用NLineInputFormat类作为输入格式来管理maptask的数量。但是,对于完全相同的输入,我偶尔会得到略有不同的数字,或者取决于实例的数量(10、15和20)。谁能告诉我为什么我看到启动的任务数量不同? 最佳答案 这很可能是推测性执行的启动。当Hadoop有可用资源时,它可能会选择同时运行同一任务的两次尝试。启

java - 错误 : "java.io.IOException: Type mismatch in key from map" on my MapReduce class (using Hadoop 2. 2.0)

我正在尝试通过Hadoop在本地主机上执行MapReduce程序。我写了一个程序来计算文本文件中的单词。源代码非常简单:importjava.io.IOException;importjava.util.ArrayList;importjava.util.List;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.LongWritable;importorg

hadoop - Storm 纱 : Application container fails to launch

我正在运行一个Storm(三叉戟)拓扑,它从kafka读取avro并将记录写入hbase。拓扑在Localcluster模式下按预期运行,但在使用Stormsubmitter时我遇到了以下问题。在分布式Hadoop模式下,我在启动YARN应用程序时收到以下错误[1]。在Hadoop中(本地模式,只有1个盒子)Yarn正在生成nimbus服务器和storm-ui。但是没有主管运行拓扑中的spout/bolt。我猜原因可能是内存不足(4G来运行拓扑+hbase、hdfs、kafka、zookeeper等...)。你能帮我理解这个容器失败的原因吗?应用程序日志中没有错误/信息。[1]YARN

java - 线程 "main"java.lang.NoClassDefFoundError : when launching pyspark 中的异常

我只是在Mac上下载了spark,我下载的版本是最新的为Hadoop2.6预先构建当我尝试安装它时,我在终端上输入bin/pyspark我得到的是以下异常Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/spark/launcher/MainCausedby:java.lang.ClassNotFoundException:org.apache.spark.launcher.Mainatjava.net.URLClassLoader$1.run(URLClassLoader.java:202)atjava.

mysql - 配置单元 : why is metastore_db created in my project folder?

我把hive-site.xml在我的spark/confdir并将其配置为连接到thrift://:9083而且我没有使用derby我有mysql-connector-jar在hive/lib文件夹中,每次我创建hive表和存储数据时,所有数据都存储在metastore_db中在我的项目目录中,而不是在我的hdfs://:9000/user/hive/warehouse中,所以如果我删除metastore_db数据就会丢失。conf/hive-site.xmljavax.jdo.option.ConnectionURLjdbc:mysql://saurab:3306/metastore

java - 带有 Java 的 Apache Spark : Launching multiple app requests simultaneously

我们将spark与java结合使用,并创建了JavaRESTapi来调用我们的spark代码。在调用RESTurl时,我的java方法将创建SparkSession和Context以继续计算。这对于单个请求工作正常,但同时对于多个请求,我们收到与SparkContexts相关的问题:同一驱动程序JVM中的多个SparkContexts还尝试使用:conf.set("spark.driver.allowMultipleContexts","true");请建议如何管理同步spark请求的Spark上下文。或者任何其他处理这种情况的方法? 最佳答案

Hadoop 纱 : Failed to launch container

在运行Hive查询时,我的Hadoop2.3.0集群中的数据节点出现内存不足错误。我应该查看哪些设置以防止节点管理器出现故障?2014-04-2912:03:33,505WARNorg.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch:Failedtolaunchcontainer.java.lang.OutOfMemoryError:Javaheapspaceatjava.lang.ClassLoader.findLoadedClass0(NativeMethod)atjav

Hadoop 2.7.1 - 映射减少错误 : Diagnostics: Exception from container-launch

我刚刚将hadoop从2.6.0升级到2.7.1,我所有针对hbase-1.1.1的mapreduces开始失败。我在资源管理器中得到的错误是:Diagnostics:Exceptionfromcontainer-launch.Containerid:container_e08_1439909765014_0004_02_000001Exitcode:1Stacktrace:ExitCodeExceptionexitCode=1:atorg.apache.hadoop.util.Shell.runCommand(Shell.java:545)atorg.apache.hadoop.ut

hadoop - Hive 给出 SemanticException [错误 10014] : when Running my UDF

我有一个执行GeoIP查找的配置单元UDF。publicstaticTextevaluate(TextinputFieldName,Textoption,TextdatabaseFileName){StringinputField,fieldOption,dbFileName,result=null;inputField=inputFieldName.toString();fieldOption=option.toString();dbFileName=databaseFileName.toString();ExtractDataeed=newExtractData();try{res

安装的mysql中没有my.ini文件

使用的这么长时间的mysql,有一天我突然需要使用mysql的配置文件my.ini时发现没有这个文件并且这个文件不是被隐藏了。查看自己的mysql中是否有my.ini,也可能是这个文件是隐藏文件你没有设置可以查看隐藏文件一般情况下mysql都是安装在C:\ProgramFiles\MySQL\MySQLServer5.7这个地方,我之前好像是用的安装包搞的mysql所以没有my.ini这个文件。这个文件是关于mysql一个重要配置文件。如果没有的话可以这样。这个我也是看别人的文章搞的。注意,在你准备把my.ini这个文件搞出来之前先把你之前数据库中的数据都转储sql一下因为,因为在这个过程中会