草庐IT

IFA_LOCAL

全部标签

hadoop - 使用 HDFS 而不是 spark.local.dir

试图理解为什么Spark需要本地机器上的空间!有办法解决吗?我一直遇到“设备上没有剩余空间”。我知道我可以将“spark.local.dir”设置为以逗号分隔的列表,但有没有办法改用HDFS?我正在尝试合并两个巨大的数据集。在较小的数据集上,Spark是MapReduce的对手,但在我用这些巨大的数据集证明之前,我不能宣布胜利。我没有使用yarn。此外,我们的网关节点(又名边缘节点)不会有很多可用空间。有解决办法吗? 最佳答案 当groupByKey操作时,Spark只是写入tmpDir序列化分区。它是普通文件(请参阅Shuffle

java - Cassandra 错误 :Invalid method name "describe local ring"

我正在使用java在hadoop中开发一个项目。当我在本地集群上运行我的代码(jar)时它工作正常但是当我在亚马逊多集群上运行它时它会给出异常...我的mapreduce作业代码....job.setJarByClass(ReadActivityDriver.class);job.setMapperClass(ReadActivityLogMapper.class);job.setReducerClass(ReadActivityLogReducer.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueCla

linux -/usr/local 是不是必须要安装hadoop?

我正在尝试构建一个具有四个节点的hadoop集群。这四台机器来self学校的实验室,我发现它们的/usr/local是从同一个公共(public)磁盘挂载的,这意味着它们的/usr/local是相同的。问题是,我无法在从服务器上启动数据节点,因为hadoop文件总是相同的(比如tmp/dfs/data)。我计划在/opt等其他目录中配置和安装hadoop。问题是我发现几乎所有的安装教程都要求我们将它安装在/usr/local,所以我想知道如果我在其他地方安装hadoop会不会有什么不好的后果/选择?顺便说一句,我正在使用Ubuntu16.04 最佳答案

windows - 映射减少错误 : Failed to setup local dir

我在Windows8上安装的hadoop上运行mapreducewordcount示例。我收到如下错误。这听起来像是一个安全许可问题。但我不太确定。我在yarn-site.xml文件中添加了一个属性yarn.nodemanager.local-dirsc:\hadoop\tmp-nm任何想法都会很有帮助!15/07/1511:01:54INFOclient.RMProxy:ConnectingtoResourceManagerat/0.0.0.0:803215/07/1511:01:55WARNmapreduce.JobResourceUploader:Hadoopcommand-li

sql - Hive: java.lang.OutOfMemoryError: Java heap space and Job running in-process (local Hadoop)

我的设置:运行NixOSLinux的GoogleCloudPlatform中的4节点集群(1个主节点,3个工作节点)。我一直在使用TPC-DS工具包来生成数据和查询都是标准的。在较小的数据集/更简单的查询上,它们工作得很好。我从这里获取的查询:https://github.com/hortonworks/hive-testbench/tree/hdp3/sample-queries-tpcds这是第一个,query1.sql:WITHcustomer_total_returnAS(SELECTsr_customer_skASctr_customer_sk,sr_store_skASct

java - Hadoop : java. io.IOException : Call to localhost/127. 0.0.1 :54310 failed on local exception: java. io.EOFException

我是hadoop的新手,今天才开始使用它,我想将文件写入hdfshadoop服务器,我正在使用服务器hadoop1.2.1,当我在cli中给出jps命令时,我能够看到所有节点都在运行,31895Jps29419SecondaryNameNode29745TaskTracker29257DataNode这是我将文件写入hdfs系统的示例客户端代码publicstaticvoidmain(String[]args){try{//1.GettheinstanceofCOnfigurationConfigurationconfiguration=newConfiguration();confi

scala - yarn 上的 Spark 提交没有将 jar 分发到 nm-local-dir

1、版本Spark:2.0.0标度:2.11.8java:1.8.0_91hadoop:2.7.22、问题:当我在yarn上提交scala程序到spark时,它抛出一个异常:Causedby:java.lang.IllegalStateException:Librarydirectory'/opt/hadoop/tmp/nm-local-dir/usercache/hadoop/appcache/application_1471514504287_0021/container_1471514504287_0021_01_000002/assembly/target/scala-2.11

hadoop - kadmin 不能创建 principle 但 kadmin.local 可以

我正在Cloudera5beta上启用安全模式。使用cloudera管理器并在执行来自here的安全启用文档的第8步之后clouderamanager应该触发GenerateCredential命令,但事实并非如此。所以我正在做的是手动运行GenerateCredential,但它给我错误日志。KADMIN='kadmin-k-t/etc/cloudera-scm-server/cmf.keytab-pcloudera-scm/admin@IMP.CO.IN-rIMP.CO.IN'+kadmin-k-t/etc/cloudera-scm-server/cmf.keytab-pcloud

hadoop - 从 s3 ://to local file system 复制文件

我是aws新手。我创建了一个集群并通过ssh连接到主节点。当我尝试将文件从s3://my-bucket-name/复制到pig中的本地file://home/hadoop文件夹时,使用:cps3://my-bucket-name/path/to/filefile://home/hadoop我得到错误:2013-06-0818:59:00,267[main]ERRORorg.apache.pig.tools.grunt.Grunt-ERROR2999:Unexpectedinternalerror.AWSAccessKeyIDandSecretAccessKeymustbespecifi

Hadoop/YARN 作业失败 - "exited with exitCode: -1000 due to: Could not find any valid local directory for nmPrivate..."

我正在尝试使用Hadoop、YARN和Accumulo运行MapReduce作业。我收到以下输出,但我无法找到问题所在。看起来是YARN问题,但我不确定它在寻找什么。我在$HADOOP_PREFIX/grid/hadoop/hdfs/yarn/logs位置有一个nmPrivate文件夹。这是它说找不到的文件夹吗?14/03/3108:48:46INFOmapreduce.Job:Jobjob_1395942264921_0023failedwithstateFAILEDdueto:Applicationapplication_1395942264921_0023failed2times