草庐IT

showToast_fail

全部标签

ElasticSearch遇到java.net.SocketException: Broken pipe (Write failed)报错

        最近需要大范围使用ElasticSearch,以前这个一直是我的薄弱项(现在也还是!)        接手的一个较老的项目中,使用的第三方包(bboss)中的接口查询的ElasticSearch,里面的方法和官方给的略有一点区别。涉及到了我的知识盲区。但是原始的业务的查询逻辑很有一点复杂不方便更改现有逻辑,只能照着前人的路子改下去。报错截图我的解决思路        代码运行起来看不到一点错误,这还是使用了try-catch打印出来的。        debug下去一步一步看起来,到源码发送请求的地方,直接就返回了异常。隐约感觉到是请求的问题。但是实在想不出能有什么办法解决。 

hadoop - 如何消除错误 util.Shell : Failed to locate the winutils binary

我在eclipse下从Windows机器(客户端)执行远程作业,我澄清我的Windows客户端上没有安装任何hadoop,我不需要,我正在远程执行hadoop作业,hadoop是安装在linux机器上。一切都正确执行,但我想摆脱这个错误:14/09/2211:49:49ERRORutil.Shell:Failedtolocatethewinutilsbinaryinthehadoopbinarypathjava.io.IOException:Couldnotlocateexecutablenull\bin\winutils.exeintheHadoopbinaries.atorg.ap

java - pig : Hadoop jobs Fail

我有一个从csv文件查询数据的pig脚本。该脚本已在本地使用小型和大型.csv文件进行了测试。在小集群中:它从处理脚本开始,并在完成40%的调用后失败错误只是,无法从“文件路径”读取数据我的推断是,脚本可以读取文件,但是连接断开,消息丢失但我只收到上述错误。 最佳答案 一般问题的答案是更改配置文件中的错误级别,将这两行添加到mapred-site.xmllog4j.logger.org.apache.hadoop=error,Alog4j.logger.org.apache.pig=error,A在我的例子中,它是一个OutOfMe

hadoop - java.sql.SQLException : Failed to start database '/var/lib/hive/metastore/metastore_db' in hive 异常

我是hive的初学者。当我尝试执行任何配置单元命令时:hive>显示表格;它显示以下错误:FAILED:Errorinmetadata:javax.jdo.JDOFatalDataStoreException:Failedtostartdatabase'/var/lib/hive/metastore/metastore_db',seethenextexceptionfordetails.NestedThrowables:java.sql.SQLException:Failedtostartdatabase'/var/lib/hive/metastore/metastore_db',se

DataStage登录报错:Failed to authenticate the current user against the selected Services Tier.

背景:近期同事一直在使用DataStage登录查找作业,突然今天无法登陆了。报错:FailedtoauthenticatethecurrentuseragainsttheselectedServicesTier.结论:解决了。报错处理过程1.开始第一反应是重装DataStage,毕竟我和另外几个同事的能够正常连接,他那边测试DS节点主机名都可以ping通,但是问题来了,发现2个问题:1)安装地址默认跳转到IE11,也就是MicrosoftEdge浏览器。2)MicrosoftEdge浏览器无法完成对DataStage的安装或者卸载动作。2.要处理第一个问题,先要在MicrosoftEdge浏览

hadoop - 使用配置单元初始化数据库时出现 java.sql.SQLException : Failed to start database 'metastore_db' ERROR,

我在3个集群上安装了Hadoop和Hive。我能够从运行HIVE的集群节点登录到配置单元。root@NODE_3hive]#hiveLogginginitializedusingconfigurationinjar:file:/usr/lib/hive/lib/hive-common-0.10.0-cdh4.2.0.jar!/hive-log4j.propertiesHivehistoryfile=/tmp/root/hive_job_log_root_201304020248_306369127.txthive>showtables;OKTimetaken:1.459secondsh

hadoop - "getMaster attempt 1 of 1 failed; no more retrying. com.google.protobuf.ServiceException: java.io.IOException: Broken pipe"连接时

我正在尝试通过一个Java小程序连接到本地系统中安装的HBase(使用Hortonworks1.1.1.16),该程序执行下一个命令:HBaseAdmin.checkHBaseAvailable(conf);值得一提的是,在命令行使用hbase命令连接HBase完全没有问题。主机文件的内容是下一个(其中example.com包含实际主机名):127.0.0.1localhostexample.comHBase配置为在独立模式下工作:hbase.cluster.distributed=false执行程序时,抛出下一个异常:13/05/1315:18:29INFOzookeeper.Zoo

oracle - 异常 : Job Failed with status:3 when copying data from Oracle to HDFS through sqoop2

我正在尝试使用Sqoop2将数据从Oracle11g2服务器复制到HDFS。Oracle的链接似乎有效,因为如果我使用无效的凭据,它会提示。定义如下:linkwithid14andnameOLink(Enabled:true,Createdbyxxxat2/9/162:48PM,Updatedbyxxxat2/11/1610:08AM)UsingConnectorgeneric-jdbc-connectorwithid4LinkconfigurationJDBCDriverClass:oracle.jdbc.driver.OracleDriverJDBCConnectionString

hadoop - 错误 : while processing statement: FAILED: Hive Internal Error: hive. mapred.supports.subdirectories 必须为真

我遇到了一个错误Errorwhileprocessingstatement:FAILED:HiveInternalError:hive.mapred.supports.subdirectoriesmustbetrueifanyoneoffollowingistrue:hive.optimize.listbucketing,mapred.input.dir.recursiveandhive.optimize.union.remove.当我尝试从HDFS目录递归加载数据到hive表时发生此错误我尝试设置以下参数:SETmapred.input.dir.recursive=true;SETh

hadoop - Oozie 简单 ssh 作业失败 : AUTH_FAILED: Not able to perform operation

我正在尝试使用Clouderaoozie进行简单的ssh作业。job.properties:nameNode=hdfs://localhost:8020jobTracker=localhost:8032queueName=defaultexamplesRoot=examplesoozie.wf.application.path=${nameNode}/user/${user.name}/${examplesRoot}/apps/sshworkflow.xml:localhostdateSSHactionfailed,errormessage[${wf:errorMessage(wf:l