草庐IT

configurer

全部标签

@Conditional+@Configuration有没有搞头?

日拱一卒,功不唐捐。在了解@Conditional之前先花10秒钟复习一下@Configuration这个注解。@Configuration是干什么?是配合@Bean注解来配置Spring容器的bean的。那它为什么会出现呢?因为配置bean的另一种方式是xml,狗都不用。那给个示例看看呗?简单。@Configurationpublic class AppConfig {    @Bean    public MyBean myBean() {        // 初始化, 配置, 返回bean...    }}下面进入主题:@Conditional是什么东西?首先明确第一点:@Conditi

hadoop - Spark + yarn 簇: how can i configure physical node to run only one executor\task each time?

我的环境包含4个物理节点和少量RAM,每个节点有8个CPU内核。我注意到spark会自动决定为每个CPU分配RAM。结果是发生了内存错误。我正在处理大数据结构,我希望每个执行程序都将在物理节点上拥有整个RAM内存(否则我会遇到内存错误)。我尝试在“yarn-site.xml”文件上配置“yarn.nodemanager.resource.cpu-vcores1”或在spark-defaults.conf上配置“spark.driver.cores1”但没有成功。 最佳答案 尝试设置spark.executor.cores1

python - 为什么 Windows7 中的 hadoop 会引发 RuntimeException : Error in configuring object

我试图在windows7中以伪分布式模式运行hadoop程序,但出现了RuntimeException。我不知道为什么以及如何解决它。我使用python进行mapreduce工作,而不是使用hadoop-streaming实用程序(https://hadoop.apache.org/docs/current/hadoop-streaming/HadoopStreaming.html)的java。我运行了hadoopjar%HADOOP_HOME%\share\hadoop\tools\lib\hadoop-streaming-2.6.2.jar-mappermapper.py-redu

Could not resolve all files for configuration ‘:app:androidJdkImage‘.

在使用./gradlewbuild编译项目时候遇到了该问题,整体错误如下:*Whatwentwrong:Configurationcachestatecouldnotbecached:field`generatedModuleFile`of`com.android.build.gradle.tasks.JdkImageInput`beanfoundinfield`compilerArgumentProviders`of`org.gradle.api.tasks.compile.CompileOptions`beanfoundinfield`capturedArgs`of`java.lang.i

hadoop - 加入 : space available is below the configured reserved amount 的配置单元查询

我在单节点集群上使用hive执行sql查询,我收到此错误:MapReduceJobsLaunched:Stage-Stage-20:HDFSRead:4456448HDFSWrite:0FAILTotalMapReduceCPUTimeSpent:0msec在日志http://localhost:50070/logs/hadoop-hadoop-namenode-hadoop.log中,可用空间似乎低于配置的保留量:org.apache.hadoop.hdfs.server.namenode.NameNodeResourceChecker:Spaceavailableonvolume'

apache-spark - Spark 独立集群 :Configuring Distributed File System

我刚刚从Spark本地设置迁移到Spark独立集群。显然,加载和保存文件不再有效。我了解我需要使用Hadoop来保存和加载文件。我的Spark安装是spark-2.2.1-bin-hadoop2.7问题1:我仍然需要单独下载、安装和配置Hadoop以与我的独立Spark集群一起工作,我是否正确?问题2:使用Hadoop运行和使用Yarn运行有什么区别?...哪个更容易安装和配置(假设数据负载相当轻)? 最佳答案 A1。正确的。你提到的包只是打包了指定版本的hadoop客户端,如果你想使用hdfs,你仍然需要安装hadoop。A2。使

configuration - Hadoop Configuration.addDefaultResource() 不工作

我的以下代码没有产生预期的输出:publicstaticvoidmain(String[]args)throwsMalformedURLException{Configuration.addDefaultResource("/home/some_user/conf.xml");Configurationconf=newConfiguration();System.out.println(conf);System.out.println(conf.get("color"));assertThat(conf.get("color"),is("yellow"));}属性color在conf.

java - 在Configuration中设置HDFS的根目录

我有一个目录结构:/DIRfilesDIRusr我的HDFS在hdfs://db:123可用,所以我创建配置:configuration.set("fs.default.name","hdfs://db:123");那么所有的目录/路径都是相对于根的(/)。我创建了一个目录files,这是我想要保存所有文件的地方。我是否必须手动将/files/附加到代码中每个路径的开头,或者我是否可以创建配置:configuration.set("fs.default.name","hdfs://db:123/files");无需更改代码? 最佳答案

hadoop - 运行时异常 : Error in configuring object with null pointer exception while running my UDAF?

我一直在尝试编写一个UDAF来计算加权平均值。我用类似于现有UDAF的方式编写它来计算平均值,但它似乎只适用于我的本地机器。我不确定出了什么问题....有人遇到过类似的问题吗以下是生成的错误:java.lang.RuntimeException:Errorinconfiguringobjectatorg.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)atorg.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)

java - 将 hadoop 的 Configuration 转换为 Map<String, String>

如何转换hadoop的Configurationconf至Map?我有一个将Map作为参数的方法,我想将Configurationconf传递给它,那么如何在两者之间转换? 最佳答案 您可以使用Configuration提供的迭代器并构建map。Configurationconfiguration=newConfiguration();Mapmap=newHashMap();Iterator>iterator=configuration.iterator();while(iterator.hasNext()){Map.Entryen