草庐IT

binary-log

全部标签

hadoop - 登录 Hive,log4j 文件

我正在尝试通过命令窗口访问Hive。我只是在适当的目录中运行“Hive”,但出现错误“登录被拒绝”。我读过log4j用于登录,但我不知道我是否必须创建一个帐户并在那里写入我的用户数据。非常感谢 最佳答案 Hive服务现在应该可以正常工作了。从您自己的FI-LAB虚拟机,您只需使用您的Cosmos凭据登录到头节点(如果您没有Cosmos凭据,请通过注册here获取):[root@your_filab_vm]$sshcosmos.lab.fi-ware.org登录到头节点后,键入以下命令:[your_cosmos_username@co

eclipse - java.lang.NoClassDefFoundError : org/apache/commons/logging/LogFactory in Hadoop 1. 2.1 Kmean算法

我尝试从http://codingwiththomas.blogspot.kr/2011/05/k-means-clustering-with-mapreduce.html但是有错误log4j:WARNErrorduringdefaultinitializationjava.lang.NoClassDefFoundError:org/apache/log4j/AppenderSkeletonatjava.lang.ClassLoader.findBootstrapClass(NativeMethod)atjava.lang.ClassLoader.findBootstrapClassO

java - 每次调用 logger.info/debug/warn() 调用时,只用 log4j 记录一次

我有一个特定的日志消息可能会被打印很多次的场景(可能是数百万次)。例如,如果我们记录(使用logger.warn()方法)每条缺少字段的记录,我们最终可能会记录很多输入文件有很多记录的情况缺少字段(例如,HDFS上的大文件)。这很快就会填满磁盘空间。为避免这种情况,我尝试为每(例如)1000条缺少字段的记录记录一次。我可以在log4j包之外实现所有这些逻辑,但我想知道是否有更简洁的方法来执行此操作。理想情况下,所有这些逻辑都将进入log4j代码。这似乎是一个经常遇到的问题,但几乎没有关于此的任何信息。有什么想法吗? 最佳答案 Log

hadoop - Cloudera-scm-server.log 在两个地方显示错误

我正在尝试运行Cloudera-Manager,但在以下屏幕截图中给出了错误并用红笔标记。谁能帮我解决这些错误?? 最佳答案 错误非常简单。ClouderaManager无法使用指定的凭据连接到数据库。您是否能够使用/etc/cloudera-scm-server/db.properties中提供的凭据手动连接? 关于hadoop-Cloudera-scm-server.log在两个地方显示错误,我们在StackOverflow上找到一个类似的问题: http

java - 自动删除旋转的 gc.log 文件

我们有hadoop集群版本2.6.4,同时在我们的一台Linux服务器上安装了指标收集器root@master02ambari-metrics-collector]#rpm-qa|grepmetrics-collectorambari-metrics-collector-2.6.1.0-143.x86_64在/var/log/ambari-metrics-collector下,我们有去年7月的gc.log文件,我们想自动删除旋转的gc.log文件[root@master02ambari-metrics-collector]#ls-ltr|grepgc.log|grep-vcollect

logging - Hadoop 作业中的日志记录如何工作?

登录Hadoop作业如何工作?使用SLF4J和Logback,我需要什么样的配置才能在一个地方看到所有日志输出?JobTracker会整理Hadoop作业的STDOUT吗? 最佳答案 每个数据节点上的日志目录包含一个子目录userlogs。这包含最近maptask尝试的子目录。那是针对maptask的每个实例。由于任务尝试在其名称中包含作业ID,因此您可以找出特定作业在何处创建的日志。任务尝试目录包含文件:标准错误标准输出系统日志这些包含各自的输出。您可以通过从列出的作业导航到其任务、单击任务并选择其输出来从JobTrackerWe

hadoop - 如何消除错误 util.Shell : Failed to locate the winutils binary

我在eclipse下从Windows机器(客户端)执行远程作业,我澄清我的Windows客户端上没有安装任何hadoop,我不需要,我正在远程执行hadoop作业,hadoop是安装在linux机器上。一切都正确执行,但我想摆脱这个错误:14/09/2211:49:49ERRORutil.Shell:Failedtolocatethewinutilsbinaryinthehadoopbinarypathjava.io.IOException:Couldnotlocateexecutablenull\bin\winutils.exeintheHadoopbinaries.atorg.ap

logging - Chukwa 和 Scribe 哪个更好?

我正在使用Hadoop,但为了记录我需要一些东西。但是我不知道在Scribe和Chukwa之间登录系统哪个更好。你们能告诉我吗?如果有任何易于与Hadoop混合的替代方案,请告诉我。 最佳答案 我有一个替代方案:ApacheFlume由Cloudera构建,主要用于将数据输入/输出HDFS。https://cwiki.apache.org/confluence/display/FLUME/Index每个系统都有利有弊,它们在大规模运行时都存在一定的可靠性问题,但我可以说Flume是用java构建的,因此可以使用主要的HDFS库。我们

hadoop - Log4j 不写入 HDFS/Log4j.properties

基于以下配置,我希望我的log4j应该写入HDFS文件夹(/myfolder/mysubfolder)。但它甚至没有创建具有给定名称hadoop9.log的文件。我尝试在hdfs上手动创建hadoop9.log。还是不行。我是否遗漏了log4j.properties中的任何内容?#Definesomedefaultvaluesthatcanbeoverriddenbysystempropertieshadoop.root.logger=INFO,console,RFA,DRFAhadoop.log.dir=/myfolder/mysubfolderhadoop.log.file=had

MySQL数据库的备份、恢复、导出、导入(bin log和mydump)

目录一、使用binlog来恢复数据一、binlog的三种格式1、statement:基于SQL语句的复制(statement-basedreplication,SBR)2、row:基于行的复制(row-basedreplication,RBR)3、mixed:混合模式复制(mixed-basedreplication,MBR)4、查看模式和更改模式二、配置binlog策略三、获取binlog文件列表四、生成新的binlog文件五、查看日志中的内容1、在mysql中使用showbinlogevents查看2、在shell中使用mysqlbinlog来查看六、利用binlog来恢复数据1、通过po