我想构建我自己的——我不确定是哪一个——分词器(从 Lucene 的角度来看)或我自己的分析器。我已经写了一个代码,用 word 标记我的文档(作为 List < string=""> 或 List Word> 其中 Word 是一个只有一种容器的类3 public String : word, pos, lemma - pos 代表词性标签)。
我不确定要索引什么,也许只有“Word.lemma”或类似“Word.lemma + '#' + Word.pos”,可能我会根据词性从停用词列表中进行一些过滤。
顺便说一句,这是我的误解:我不确定我应该在哪里插入 Lucene API,
我应该将自己的分词器包装在新的分词器中吗?我应该重写 TokenStream 吗?我应该认为这是分析器而不是分词器的工作吗?或者我应该绕过所有内容,直接在索引中添加我的单词,使用 IndexWriter、Fieldable 等来直接构建索引? (如果是的话,你知道在绕过分析过程时如何从头开始创建它自己的索引的任何文档吗)
最好的问候
编辑:可能最简单的方法应该是 org.apache.commons.lang.StringUtils.join my Word-s,在 my 的导出处留一个空格个人分词器/分析器并依靠 WhiteSpaceTokenizer 来提供 Lucene(和其他经典过滤器)?
编辑:所以,我已经阅读了Larsmans指出的EnglishLemmaTokenizer...但我仍然感到困惑的是,我用一个完整的 *List < word=""> * (Word class wrapping .form/.pos/.lemma) 结束我自己的分析/标记化过程,这个过程依赖于一个外部我用 Java 包装的二进制文件(这是必须做的/否则不能做 - 它不是从消费者的角度来看,结果我得到了完整的列表)但我仍然不知道我应该如何再次包装它以回到正常的 Lucene 分析流程。
我还将使用 TF.IDF 的 TermVector 功能,比如评分(可能会重新定义我自己的),我可能也对邻近搜索感兴趣,因此,在提供它们之前从他们的词性中丢弃一些词到 Lucene 内置分词器或内部分析器似乎是个坏主意。我很难想出一种“正确”的方式来将 Word.form/Word.pos/Word.lemma(甚至其他 Word.anyOtherUnterestingAttribute)包装成 Lucene 方式。
编辑: 顺便说一句,这是我受 @Larsmans 启发而编写的一段代码:
class MyLuceneTokenizer extends TokenStream {
private PositionIncrementAttribute posIncrement;
private CharTermAttribute termAttribute;
private List<TaggedWord> tagged;
private int position;
public MyLuceneTokenizer(Reader input, String language, String pathToExternalBinary) {
super();
posIncrement = addAttribute(PositionIncrementAttribute.class);
termAttribute = addAttribute(CharTermAttribute.class); // TermAttribute is deprecated!
// import com.google.common.io.CharStreams;
text = CharStreams.toString(input); //see http://stackoverflow.com/questions/309424/in-java-how-do-i-read-convert-an-inputstream-to-a-string
tagged = MyTaggerWrapper.doTagging(text, language, pathToExternalBinary);
position = 0;
}
public final boolean incrementToken()
throws IOException {
if (position > tagged.size() -1) {
return false;
}
int increment = 1; // will probably be changed later depending upon any POS filtering or insertion @ same place...
String form = (tagged.get(position)).word;
String pos = (tagged.get(position)).pos;
String lemma = (tagged.get(position)).lemma;
// logic filtering should be here...
// BTW we have broken the idea behing the Lucene nested filters or analyzers!
String kept = lemma;
if (kept != null) {
posIncrement.setPositionIncrement(increment);
char[] asCharArray = kept.toCharArray();
termAttribute.copyBuffer(asCharArray, 0, asCharArray.length);
//termAttribute.setTermBuffer(kept);
position++;
}
return true;
}
}
class MyLuceneAnalyzer extends Analyzer {
private String language;
private String pathToExternalBinary;
public MyLuceneAnalyzer(String language, String pathToExternalBinary) {
this.language = language;
this.pathToExternalBinary = pathToExternalBinary;
}
@Override
public TokenStream tokenStream(String fieldname, Reader input) {
return new MyLuceneTokenizer(input, language, pathToExternalBinary);
}
}
最佳答案
这里有多种选择,但是当我尝试在 Lucene 中包装词性标注器时,我发现实现一个新的 TokenStream 并将其包装在一个新的 Analyzer 中是最简单的选择。无论如何,直接使用 IndexWriter 似乎不是个好主意。你可以找到我的代码 on my GitHub .
关于java - 使用 Lucene 进行分词和索引,如何处理外部分词和词性?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10649581/
我正在学习如何使用Nokogiri,根据这段代码我遇到了一些问题:require'rubygems'require'mechanize'post_agent=WWW::Mechanize.newpost_page=post_agent.get('http://www.vbulletin.org/forum/showthread.php?t=230708')puts"\nabsolutepathwithtbodygivesnil"putspost_page.parser.xpath('/html/body/div/div/div/div/div/table/tbody/tr/td/div
我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看rubyzip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d
类classAprivatedeffooputs:fooendpublicdefbarputs:barendprivatedefzimputs:zimendprotecteddefdibputs:dibendendA的实例a=A.new测试a.foorescueputs:faila.barrescueputs:faila.zimrescueputs:faila.dibrescueputs:faila.gazrescueputs:fail测试输出failbarfailfailfail.发送测试[:foo,:bar,:zim,:dib,:gaz].each{|m|a.send(m)resc
很好奇,就使用rubyonrails自动化单元测试而言,你们正在做什么?您是否创建了一个脚本来在cron中运行rake作业并将结果邮寄给您?git中的预提交Hook?只是手动调用?我完全理解测试,但想知道在错误发生之前捕获错误的最佳实践是什么。让我们理所当然地认为测试本身是完美无缺的,并且可以正常工作。下一步是什么以确保他们在正确的时间将可能有害的结果传达给您? 最佳答案 不确定您到底想听什么,但是有几个级别的自动代码库控制:在处理某项功能时,您可以使用类似autotest的内容获得关于哪些有效,哪些无效的即时反馈。要确保您的提
假设我做了一个模块如下:m=Module.newdoclassCendend三个问题:除了对m的引用之外,还有什么方法可以访问C和m中的其他内容?我可以在创建匿名模块后为其命名吗(就像我输入“module...”一样)?如何在使用完匿名模块后将其删除,使其定义的常量不再存在? 最佳答案 三个答案:是的,使用ObjectSpace.此代码使c引用你的类(class)C不引用m:c=nilObjectSpace.each_object{|obj|c=objif(Class===objandobj.name=~/::C$/)}当然这取决于
我正在尝试使用ruby和Savon来使用网络服务。测试服务为http://www.webservicex.net/WS/WSDetails.aspx?WSID=9&CATID=2require'rubygems'require'savon'client=Savon::Client.new"http://www.webservicex.net/stockquote.asmx?WSDL"client.get_quotedo|soap|soap.body={:symbol=>"AAPL"}end返回SOAP异常。检查soap信封,在我看来soap请求没有正确的命名空间。任何人都可以建议我
关闭。这个问题是opinion-based.它目前不接受答案。想要改进这个问题?更新问题,以便editingthispost可以用事实和引用来回答它.关闭4年前。Improvethisquestion我想在固定时间创建一系列低音和高音调的哔哔声。例如:在150毫秒时发出高音调的蜂鸣声在151毫秒时发出低音调的蜂鸣声200毫秒时发出低音调的蜂鸣声250毫秒的高音调蜂鸣声有没有办法在Ruby或Python中做到这一点?我真的不在乎输出编码是什么(.wav、.mp3、.ogg等等),但我确实想创建一个输出文件。
在控制台中反复尝试之后,我想到了这种方法,可以按发生日期对类似activerecord的(Mongoid)对象进行分组。我不确定这是完成此任务的最佳方法,但它确实有效。有没有人有更好的建议,或者这是一个很好的方法?#eventsisanarrayofactiverecord-likeobjectsthatincludeatimeattributeevents.map{|event|#converteventsarrayintoanarrayofhasheswiththedayofthemonthandtheevent{:number=>event.time.day,:event=>ev
我在我的项目目录中完成了compasscreate.和compassinitrails。几个问题:我已将我的.sass文件放在public/stylesheets中。这是放置它们的正确位置吗?当我运行compasswatch时,它不会自动编译这些.sass文件。我必须手动指定文件:compasswatchpublic/stylesheets/myfile.sass等。如何让它自动运行?文件ie.css、print.css和screen.css已放在stylesheets/compiled。如何在编译后不让它们重新出现的情况下删除它们?我自己编译的.sass文件编译成compiled/t
我想将html转换为纯文本。不过,我不想只删除标签,我想智能地保留尽可能多的格式。为插入换行符标签,检测段落并格式化它们等。输入非常简单,通常是格式良好的html(不是整个文档,只是一堆内容,通常没有anchor或图像)。我可以将几个正则表达式放在一起,让我达到80%,但我认为可能有一些现有的解决方案更智能。 最佳答案 首先,不要尝试为此使用正则表达式。很有可能你会想出一个脆弱/脆弱的解决方案,它会随着HTML的变化而崩溃,或者很难管理和维护。您可以使用Nokogiri快速解析HTML并提取文本:require'nokogiri'h