草庐IT

scala - 使用 Hivecontext,在本地系统 metastore_db 而不是 Cluster 中本地创建 Hive 表,在哪里放置我的 hive-site.xml

我已经创建了一个SparkContext对象,并尝试从hadoop服务器(不在我的本地)上的文本文件中检索文本,我能够检索到它。当我尝试检索Hive表(位于独立机器、集群上)时,我无法做到,当我创建一个Hive表时,它是在metastore_db中本地创建的objHiveContext.sql("createtableyahoo_orc_table(dateSTRING,open_priceFLOAT,high_priceFLOAT,low_priceFLOAT,close_priceFLOAT,volumeINT,adj_priceFLOAT)storedasorc")我尝试设置Me

java - 在 mac os 上配置 hadoop namenode 时出现 yarn-site.xml 错误

我正在尝试将我的mac配置为hadoop名称节点。输入此命令后:bin/hdfsnamenode-format我收到这个错误:[FatalError]yarn-site.xml:3:4:Commentmuststartwith"但是yarn-site.xml文件有那个注释。这是该文件的内容:yarn.nodemanager.aux-servicesmapreduce_shuffle任何建议将不胜感激。 最佳答案 这里有个小错误:这应该是(注意第二个“-”。您需要将“—”替换为“-”):所以更正后的文档是(我使用XMLValidato

hadoop - Hive:SHOW CONF 不遵守 hive-site.xml

我有以下配置单元站点配置:[hadoop@ip-10-102-201-205~]$cat/etc/hive/conf.dist/hive-site.xmlhbase.zookeeper.quorumip-10-102-201-205.ec2.internalhttp://wiki.apache.org/hadoop/Hive/HBaseIntegrationhive.execution.enginemrfs.defaultFShdfs://ip-10-102-201-205.ec2.internal:8020hive.metastore.uristhrift://ip-10-102-2

hadoop - 如何使用 Ambari 通过浏览器访问 hdfs-site.xml 和 core-site.xml?

我需要文件hdfs-site.xml和core-site.xml可以通过url访问,因为我正在安装的服务需要在安装时检索这些文件。我正在使用Ambari来管理我的hdfs和我的hadoop/堆栈。 最佳答案 看起来Ambari本身没有能力直接这样做。下载配置的一种方法是使用“服务操作”下的“下载客户端配置”菜单选项,它会为您提供配置,但在必须解压缩的tar.gz存档中。API调用的例子是:http://c6401:8080/api/v1/clusters/cl1/services/HDFS/components/HDFS_CLIEN

hadoop 权限问题 (hdfs-site.xml dfs.permissions.enabled)

我最近在我的机器上安装了Hadoop。我有权限问题。我以用户rahul身份登录并尝试在HDFS中创建目录(hdfsdfs-mkdir/rahul_workspace)。但它给了我一个错误Permissiondenied:user=Rahul,access=WRITE,inode="/user":hdfs:hdfs:drwxr-xr-x。在Google上快速搜索此错误会导致许多响应建议通过将hdfs-site.xml中的dfs.permissions属性设置为false来禁用权限检查的解决方法。现在我可以在HDFS中创建目录。将上述属性设置为false后,我可以访问所有其他hadoop服

hadoop - hive-site.xml 被 hive 忽略

我的hive-site.xml包含mysql的Metastore详细信息,我试图通过oozie将它传递给hive,但由于某种原因它忽略了它。它仍在尝试使用derby连接Metastore。我正在尝试了解如何指定我的hive-site.xml。如果我使用命令行客户端,那么mysql数据库将用作元存储,我可以在TBLS下的mysql中看到hive创建的表。如果我通过oozie将其作为工作流运行,它会尝试连接到derbyMetastore。Herearetwolinesfromlog.6649[main]INFODataNucleus.Persistence-DataNucleusPersi

hadoop - hive-site.xml 中的 hive.cli.print.current.db 停止工作

我曾经在$HIVE_HOME/conf/hive-site.xml中将hive.cli.print.current.db设置为true,以便在配置单元提示符中自动显示数据库名称。此配置最近停止工作,因此每次启动配置单元时我都必须手动设置它的值。有没有人遇到过同样的问题,你的解决方案是什么?谢谢! 最佳答案 此属性应在配置单元配置目录(/etc/hive/conf)的.hiverc文件中指定(而不是在hive-site.xml中)。创建文件/.hiverc如果不存在以下内容sethive.cli.print.current.db=tr

hadoop - 使用 cloudera 管理器部署 hdfs core-site.xml

我正在尝试使用cloudera管理器(CDH5b2)将lzo支持添加到我的配置文件中。如果我将io.compression.codecs添加到服务范围的hdfs配置中,并部署配置文件,/etc/hadoop/conf.cloudera.hdfs/core-site.xml现在包含新值。但是,/etc/hadoop/conf.cloudera.yarn/core-site.xml有更高的优先级(update-alternatives--displayhadoop-conf),当我开始MR作业时,不使用hdfscore-site.xml值。显然,我可以简单地手动修改yarncore-sit

hadoop - core-site.xml在mapreduce程序中的使用

我见过mapreduce程序使用/添加core-site.xml作为程序中的资源。core-site.xml是什么或如何在mapreduce程序中使用? 最佳答案 来自documentation,除非明确关闭,否则Hadoop默认指定两个资源,从类路径按顺序加载:core-default.xml:hadoop的只读默认值,core-site.xml:给定hadoop安装的站点特定配置Configurationconfig=newConfiguration();config.addResource(newPath("/user/had

hadoop - yarn : yarn-site. xml 更改未生效

我们有一个在HDFS2.7.3上运行的Spark流应用程序,使用Yarn作为资源管理器....在运行应用程序时......这两个文件夹/tmp/hadoop/data/nm-local-dir/filecache/tmp/hadoop/data/nm-local-dir/filecache正在填满,因此磁盘......所以根据我的研究发现,在yarn-site.xml中配置这两个属性会有所帮助yarn.nodemanager.localizer.cache.cleanup.interval-ms2000yarn.nodemanager.localizer.cache.target-si