草庐IT

setup_env

全部标签

java - 传递给 Mapper 函数(setup、map、run、cleanup)的 Context 是否始终相同?

传递给设置、映射、运行、清理的上下文是否相同映射器?会不会有不一样的情况?能否将上下文作为设置中的成员字段?Mapper 最佳答案 是的,在相同映射器中,它是setup()中的同一个上下文对象。,map()和cleanup().如您所见,这些方法是从run()中调用的,该方法如下所示:publicvoidrun(Contextcontext)throwsIOException,InterruptedException{setup(context);while(context.nextKeyValue()){map(context.g

hadoop - 我应该在什么时候以及在哪个目录中设置 hbase-env.sh 中的 HBASE_CLASSPATH 属性?

我在hbase-env.sh中设置配置,按照一些博客的一些教程在伪分布式模式下设置hbase,我想知道为什么有些人建议设置hbase-env.sh中的HBASE_CLASSPATH属性,而其他人没有,我也很困惑我应该给它什么路径 最佳答案 HBASE_CLASSPATH应该是您希望与HBase一起使用的jar的路径。例如,如果您编写了自定义HBase过滤器,那么为了使其可用并在您的应用程序中使用它,您需要取消注释并编辑hbase-env.sh中的HBASE_CLASSPATH以将其指向包含过滤器的jar。恕我直言,如果您打算只使用H

hadoop - 类似于 Mapper setup() 的 Hive setup()-like 功能?

我想用Hive替换Hadoop作业。我的挑战是在Hadoop中,我正在使用setup()通过从分布式缓存中读取引用数据(兴趣点)来构建kdtree。然后我在map()中使用kdtree来评估目标数据与kdtree的距离。在Hive中,我想使用带有evaluate()方法的udf来确定距离,但我不知道如何使用引用数据设置kdtree。这可能吗? 最佳答案 我可能没有完整的答案,所以我只是提出一些可能有帮助的想法。您可以使用ADDFILE...将文件添加到hive中的分布式缓存Hive11+(我认为)应该允许您访问GenericUDF.

spring - 如何通过属性文件而不是通过 env 变量或系统属性设置事件 spring 3.1 环境配置文件

我们使用spring3.1的新环境配置文件功能。我们目前通过在部署应用程序的服务器上设置环境变量spring.profiles.active=xxxxx来设置事件配置文件。我们认为这是一个次优的解决方案,因为我们要部署的war文件应该只有一个额外的属性文件,它设置spring应用程序上下文应该加载的环境,因此部署不依赖于设置的某些envvar服务器。我试图弄清楚如何做到这一点并发现:ConfigurableEnvironment.setActiveProfiles()我可以使用它以编程方式设置配置文件,但我仍然不知道何时何地执行此代码。Spring上下文加载的地方?我可以从属性文件加载

spring - 如何通过属性文件而不是通过 env 变量或系统属性设置事件 spring 3.1 环境配置文件

我们使用spring3.1的新环境配置文件功能。我们目前通过在部署应用程序的服务器上设置环境变量spring.profiles.active=xxxxx来设置事件配置文件。我们认为这是一个次优的解决方案,因为我们要部署的war文件应该只有一个额外的属性文件,它设置spring应用程序上下文应该加载的环境,因此部署不依赖于设置的某些envvar服务器。我试图弄清楚如何做到这一点并发现:ConfigurableEnvironment.setActiveProfiles()我可以使用它以编程方式设置配置文件,但我仍然不知道何时何地执行此代码。Spring上下文加载的地方?我可以从属性文件加载

macos - java_home 错误 : change version of java or hadoop-env. sh 文件?

在Mac10.7.5上安装Hadoop2.6.0的单节点安装程序时,手册http://hadoop.apache.org/docs/r1.2.1/single_node_setup.html需要更新java_home。即,在准备启动Hadoop集群部分,它说:“在发行版中,编辑文件conf/hadoop-env.sh以至少将JAVA_HOME定义为Java安装的根目录。”我使用终端查询'/usr/libexec/java_home'的结果,它是/System/Library/Java/JavaVirtualMachines/1.6.0.jdk/Contents/Home,对于java_

hadoop - hadoop-env.sh什么时候会在hadoop中执行

我已将hadoop-env.sh文件从默认位置移动到/etc/hadoop位置。我不确定是否需要在~/.bashrc文件中放置一个条目来执行这个文件。如果我需要输入一个条目,你能告诉我吗? 最佳答案 在hadoop-daemon.sh(start-all.sh-->start-dfs.sh-->hadoop-daemon.sh)中调用了hadoop-env.sh。以下是片段。if[-f"${HADOOP_CONF_DIR}/hadoop-env.sh"];then."${HADOOP_CONF_DIR}/hadoop-env.sh"

java.lang.NoClassDefFoundError : ./oozie-setup.sh sharelib 创建-fs hdfs://localhost:9000

我构建了Oozie并在hdfs中创建共享库,但它给出了以下错误。我按照所有步骤操作,但这是唯一出错的步骤。settingCATALINA_OPTS="$CATALINA_OPTS-Xmx1024m"Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/commons/io/filefilter/IOFileFilteratjava.lang.Class.getDeclaredMethods0(NativeMethod)atjava.lang.Class.privateGetDeclaredMethods(Cla

shell - 在 Hortonworks 上安装 Apache Kylin check-env.sh 时出错

我正在尝试按照ApacheKylininstall上提供的说明在Hortonworks沙盒上安装ApacheKylin。.我在我的.bashrcexportKYLIN_HOME='/root/kylin'上设置(在这个文件夹中有KylinBinaries)。在第3步中,它说运行bin/check-env.sh来检查环境问题,这个脚本在kylin/build下而不是在kylin/内,所以,我尝试将KYLIN_HOME设置为'/root/kylin/build'和'/root/kylin'我在“/root/kylin”中收到此错误$bin/check-env.sh:line23:/root

linux - yarn -env.sh : command not found

我在Ubuntu16.04上安装了Hadoop2.7.2。当我运行命令时:start-yarn.sh它给出了以下输出:startingyarndaemons/usr/local/hadoop-2.7.2/etc/hadoop/yarn-env.sh:line122:rt:commandnotfoundstartingresourcemanager,loggingto/usr/local/hadoop-2.7.2/logs/yarn-hduser-resourcemanager-brij-Compaq-15-Notebook-PC.out/usr/local/hadoop-2.7.2/e