草庐IT

expectation-maximization

全部标签

java - 没有找到依赖 : expected at least 1 bean which qualifies as autowire candidate for this dependency. 依赖注释:

我正在尝试使用Spring编写一个SOAP服务,但是我收到了一个依赖注入(inject)问题。我在通过服务使用@Autowired时遇到问题,如下所示:publicinterfaceUserDao{UsergetUser(Stringusername);}Dao的实现如下:@Controller("userDao")publicclassUserDaoImplimplementsUserDao{privatestaticLoglog=LogFactory.getLog(UserDaoImpl.class);@Autowired@Qualifier("sessionFactory")pr

java - Hadoop,mapreduce java.io.IOException : Type mismatch in value from map: expected org. apache.hadoop.io.Text,收到 org.apache.hadoop.io.IntWritable

我正在尝试使用两个映射器和一个缩减器。我收到以下错误:我想组合几个键,我希望得到基于每个键的求和输出。我不知道哪一部分是错的。如果您能为我的代码找到一些错误,我们将不胜感激。java.io.IOException:Typemismatchinvaluefrommap:expectedorg.apache.hadoop.io.Text,recievedorg.apache.hadoop.io.IntWritableatorg.apache.hadoop.mapred.MapTask$MapOutputBuffer.collect(MapTask.java:896)atorg.apache

java - pig : UDF not returning expected resultset

这是我正在处理的示例数据:PeterWilkerson27MJamesOwen26MMattWo30MKennyChen28M我创建了一个简单的UDF来像这样过滤年龄:publicclassIsApplicableextendsFilterFunc{@OverridepublicBooleanexec(Tupletuple)throwsIOException{if(tuple==null||tuple.size()>0){returnfalse;}try{Objectobject=tuple.get(0);if(object==null){returnfalse;}intage=(In

mysql - java.sql.SQLException : expection being thrown for SQOOP import 异常

当我尝试使用将存储在mysql数据库中的表存储到我的HDFS中时sqoopimport--connectjdbc:mysql://hostname1.com/mydb--usernameuser1--passwordpwd1--tableemp1;我遇到以下异常:Warning:/opt/cloudera/parcels/CDH-5.4.3-1.cdh5.4.3.p0.6/bin/../lib/sqoop/../accumulodoesnotexist!Accumuloimportswillfail.Pleaseset$ACCUMULO_HOMEtotherootofyourAccum

java - 在 Java 中尝试从 HDFS 复制 FromLocalFile 时出现 “Wrong FS… expected: file:///”

我正在尝试将abc.json从port/example_File/2017复制到HDFS中的另一个位置/port/example_File/2018,通过下面的代码StringexampleFile="hdfs://port/example_File/2017/abc.json"StringtargetFile="hdfs://port/example_File/2018"hdfs.copyFromLocalFile(newPath(exampleFile),newPath(targetFile))我正在低于异常org.jboss.resteasy.spi.UnhandledExcep

hadoop - java.io.IOException : Type mismatch in value from map: expected org. apache.hadoop.io.IntWritable,收到 org.apache.hadoop.io.Text

我在主block中配置了Mapper、reducer类以及map输出键值类。我不明白抛出错误的代码有什么问题Typemismatchinvaluefrommap:expectedorg.apache.hadoop.io.IntWritable,recievedorg.apache.hadoop.io.Text有人可以帮忙吗?谢谢。代码是:importjava.io.IOException;importjava.lang.String;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;import

java - 线程 "main"java.lang.IllegalArgumentException : Wrong FS: expected: file:///中的异常

我正在尝试使用java实现copyFromLocal命令,下面是我的代码。packagecom.hadoop;importjava.io.IOException;importjava.net.URI;importjava.net.URISyntaxException;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.Path;publicclassCopyFromLocal{publicstaticvoidmain(Str

java - 错误 - 映射 : expected org. apache.hadoop.io.Text 中的键类型不匹配,收到 org.apache.hadoop.io.LongWritable

我试图用java编写mapreduce代码。这是我的文件。映射器类(bmapper):publicclassbmapperextendsMapper{privateStringtxt=newString();publicvoidmapper(LongWritablekey,Textvalue,Contextcontext)throwsIOException,InterruptedException{Stringstr=value.toString();intindex1=str.indexOf("TABLEOFCONTENTS");intindex2=str.indexOf("");i

java - 错误 : java. io.IOException : Type mismatch in key from map: expected org. apache.hadoop.io.Text,收到 org.apache.hadoop.io.LongWritable

我是hadoop的新手,正在尝试运行书中的示例程序。我面临错误错误:java.io.IOException:映射中的键类型不匹配:预期的org.apache.hadoop.io.Text,收到org.apache.hadoop.io.LongWritable下面是我的代码packagecom.hadoop.employee.salary;importjava.io.IOException;importorg.apache.hadoop.io.FloatWritable;importorg.apache.hadoop.io.LongWritable;importorg.apache.ha

java - 错误 : java. io.IOException : Type mismatch in value from map: expected org. apache.hadoop.io.IntWritable,收到 org.apache.hadoop.io.Text

我的MapReduce程序如下:importjava.io.IOException;importjava.util.Iterator;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapreduce.Mapper;impo