lucene.NET详细使用与优化详解

2016-11-02 16:26

lucene.NET详细使用与优化详解

1 lucene简介

1.1 什么是lucene

Lucene是一个全文搜索框架,而不是应用产品。因此它并不像www.baidu.com或者google Desktop那么拿来就能用,它只是提供了一种工具让你能实现这些产品。

1.2 lucene能做什么

要回答这个问题,先要了解lucene的本质。实际上lucene的功能很单一,说到底,就是你给它若干个字符串,然后它为你提供一个全文搜索服务,告诉你你要搜索的关键词出现在哪里。知道了这个本质,你就可以发挥想象做任何符合这个条件的事情了。你可以把站内新闻都索引了,做个资料库;你可以把一个数据库表的若干个字段索引起来,那就不用再担心因为“%like%”而锁表了;你也可以写个自己的搜索引擎……

1.3 你该不该选择lucene

下面给出一些测试数据,如果你觉得可以接受,那么可以选择。

测试一:250万记录,300M左右文本,生成索引380M左右,800线程下平均处理时间300ms。

测试二:37000记录,索引数据库中的两个varchar字段,索引文件2.6M,800线程下平均处理时间1.5ms。

2 lucene的工作方式

lucene提供的服务实际包含两部分:一入一出。所谓入是写入,即将你提供的源(本质是字符串)写入索引或者将其从索引中删除;所谓出是读出,即向用户提供全文搜索服务,让用户可以通过关键词定位源。

2.1写入流程

源字符串首先经过analyzer处理,包括:分词,分成一个个单词;去除stopword(可选)。

将源中需要的信息加入document.各个Field中,并把需要索引的Field索引起来,把需要存储的Field存储起来。

将索引写入存储器,存储器可以是内存或磁盘。

2.2读出流程

用户提供搜索关键词,经过analyzer处理。

对处理后的关键词搜索索引找出对应的document.

用户根据需要从找到的document.提取需要的Field。

3 一些需要知道的概念

lucene用到一些概念,了解它们的含义,有利于下面的讲解。

3.1 analyzer

Analyzer是分析器,它的作用是把一个字符串按某种规则划分成一个个词语,并去除其中的无效词语,这里说的无效词语是指英文中的 “of”、 “the”,中文中的“的”、“地”等词语,这些词语在文章中大量出现,但是本身不包含什么关键信息,去掉有利于缩小索引文件、提高效率、提高命中率。

分词的规则千变万化,但目的只有一个:按语义划分。这点在英文中比较容易实现,因为英文本身就是以单词为单位的,已经用空格分开;而中文则必须以某种方法将连成一片的句子划分成一个个词语。具体划分方法下面再详细介绍,这里只需了解分析器的概念即可。

3.2 document

 用户提供的源是一条条记录,它们可以是文本文件、字符串或者数据库表的一条记录等等。一条记录经过索引之后,就是以一个document.形式存储在索引文件中的。用户进行搜索,也是以document.表的形式返回。

3.3 field

一个document.以包含多个信息域,例如一篇文章可以包含“标题”、“正文”、“最后修改时间”等信息域,这些信息域就是通过Field在document.存储的。

Field有两个属性可选:存储和索引。通过存储属性你可以控制是否对这个Field进行存储;通过索引属性你可以控制是否对该Field进行索引。这看起来似乎有些废话,事实上对这两个属性的正确组合很重要,下面举例说明:

还是以刚才的文章为例子,我们需要对标题和正文进行全文搜索,所以我们要把索引属性设置为真,同时我们希望能直接从搜索结果中提取文章标题,所以我们把标题域的存储属性设置为真,但是由于正文域太大了,我们为了缩小索引文件大小,将正文域的存储属性设置为假,当需要时再直接读取文件;我们只是希望能从搜索解果中提取最后修改时间,不需要对它进行搜索,所以我们把最后修改时间域的存储属性设置为真,索引属性设置为假。上面的三个域涵盖了两个属性的三种组合,还有一种全为假的没有用到,事实上Field不允许你那么设置,因为既不存储又不索引的域是没有意义的。

3.4 term

term是搜索的最小单位,它表示文档的一个词语,term由两部分组成:它表示的词语和这个词语所出现的field。

3.5 tocken

tocken是term的一次出现,它包含trem文本和相应的起止偏移,以及一个类型字符串。一句话中可以出现多次相同的词语,它们都用同一个term表示,但是用不同的tocken,每个tocken标记该词语出现的地方。

3.6 segment

添加索引时并不是每个document.马上添加到同一个索引文件,它们首先被写入到不同的小文件,然后再合并成一个大索引文件,这里每个小文件都是一个segment。

4 lucene的结构

lucene包括core和sandbox两部分,其中core是lucene稳定的核心部分,sandbox包含了一些附加功能,例如highlighter、各种分析器。

Lucene core有七个包:analysis,document.index,queryParser,search,store,util。

4.1 analysis

Analysis包含一些内建的分析器,例如按空白字符分词的WhitespaceAnalyzer,添加了stopwrod过滤的StopAnalyzer,最常用的StandardAnalyzer。

 

4.2 document

含文档的数据结构,例如document.定义了存储文档的数据结构,Field类定义了document.一个域。

4.3 index

Index包含了索引的读写类,例如对索引文件的segment进行写、合并、优化的IndexWriter类和对索引进行读取和删除操作的 IndexReader类,这里要注意的是不要被IndexReader这个名字误导,以为它是索引文件的读取类,实际上删除索引也是由它完成, IndexWriter只关心如何将索引写入一个个segment,并将它们合并优化;IndexReader则关注索引文件中各个文档的组织形式。

4.4 queryParser

QueryParser包含了解析查询语句的类,lucene的查询语句和sql语句有点类似,有各种保留字,按照一定的语法可以组成各种查询。 Lucene有很多种Query类,它们都继承自Query,执行各种特殊的查询,QueryParser的作用就是解析查询语句,按顺序调用各种 Query类查找出结果。

4.5 search

Search包含了从索引中搜索结果的各种类,例如刚才说的各种Query类,包括TermQuery、BooleanQuery等就在这个包里。

4.6 store

Store包含了索引的存储类,例如Directory定义了索引文件的存储结构,FSDirectory为存储在文件中的索引,RAMDirectory为存储在内存中的索引,MmapDirectory为使用内存映射的索引。

4.7 util

Util包含一些公共工具类,例如时间和字符串之间的转换工具。

 

5 如何建索引

5.1 最简单的能完成索引的代码片断

IndexWriter writer = newIndexWriter(“/data/index/”, new StandardAnalyzer(), true);

document doc = new document();

doc.add(new Field("title","lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));

doc.add(new Field("content","lucene works well", Field.Store.YES, Field.Index.TOKENIZED));

writer.adddocument(doc);

writer.optimize();

writer.close();

下面我们分析一下这段代码。

首先我们创建了一个writer,并指定存放索引的目录为“/data/index”,使用的分析器为StandardAnalyzer,第三个参数说明如果已经有索引文件在索引目录下,我们将覆盖它们。

然后我们新建一个document.

我们向document.加一个field,名字是“title”,内容是“lucene introduction”,对它进行存储并索引。

再添加一个名字是“content”的field,内容是“lucene works well”,也是存储并索引。

然后我们将这个文档添加到索引中,如果有多个文档,可以重复上面的操作,创建document.添加。

添加完所有document.我们对索引进行优化,优化主要是将多个segment合并到一个,有利于提高索引速度。

随后将writer关闭,这点很重要。

对,创建索引就这么简单!

当然你可能修改上面的代码获得更具个性化的服务。

5.2 将索引直接写在内存

你需要首先创建一个RAMDirectory,并将其传给writer,代码如下:

Directory dir = new RAMDirectory();

IndexWriter writer = new IndexWriter(dir, newStandardAnalyzer(), true);

document.doc = new document.);

doc.add(new Field("title","lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));

doc.add(new Field("content","lucene works well", Field.Store.YES, Field.Index.TOKENIZED));

writer.adddocument(doc);

writer.optimize();

writer.close();

5.3 索引文本文件

如果你想把纯文本文件索引起来,而不想自己将它们读入字符串创建field,你可以用下面的代码创建field:

Field field = new Field("content", new FileReader(file));

这里的file就是该文本文件。该构造函数实际上是读取文件内容,并对其进行索引,但不存储。

6 如何维护索引

索引的维护操作都是由IndexReader类提供。

6.1 如何删除索引

lucene提供了两种从索引中删除document.方法,一种是

void deletedocument(int docNum)

这种方法是根据document.索引中的编号来删除,每个document.进索引后都会有个唯一编号,所以根据编号删除是一种精确删除,但是这个编号是索引的内部结构,一般我们不会知道某个文件的编号到底是几,所以用处不大。另一种是

void deletedocument.(Term term)

这种方法实际上是首先根据参数term执行一个搜索操作,然后把搜索到的结果批量删除了。我们可以通过这个方法提供一个严格的查询条件,达到删除指定document.目的。

下面给出一个例子:

Directory dir = FSDirectory.getDirectory(PATH, false);

IndexReader reader = IndexReader.open(dir);

Term term = new Term(field, key);

reader.deletedocument.(term);

reader.close();

6.2 如何更新索引

lucene并没有提供专门的索引更新方法,我们需要先将相应的document删除,然后再将新的document写入索引。例如:

Directory dir = FSDirectory.getDirectory(PATH, false);

IndexReader reader = IndexReader.open(dir);

Term term = new Term(“title”, “lucene introduction”);

reader.deletedocument.(term);

reader.close();

IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);

document.doc = new document.);

doc.add(new Field("title", "lucene introduction",Field.Store.YES, Field.Index.TOKENIZED));

doc.add(new Field("content", "lucene is funny",Field.Store.YES, Field.Index.TOKENIZED));

writer.adddocument(doc);

writer.optimize();

writer.close();

7 如何搜索

lucene的搜索相当强大,它提供了很多辅助查询类,每个类都继承自Query类,各自完成一种特殊的查询,你可以像搭积木一样将它们任意组合使用,完成一些复杂操作;另外lucene还提供了Sort类对结果进行排序,提供了Filter类对查询条件进行限制。你或许会不自觉地拿它跟SQL语句进行比较:“lucene能执行and、or、order by、where、like ‘%xx%’操作吗?”回答是:“当然没问题!”

7.1 各种各样的Query

下面我们看看lucene到底允许我们进行哪些查询操作:

7.1.1 TermQuery

首先介绍最基本的查询,如果你想执行一个这样的查询:“在content域中包含‘lucene’的document,那么你可以用TermQuery:

Term t = new Term("content", "lucene");

Query query = new TermQuery(t);

7.1.2 BooleanQuery

如果你想这么查询:“在content域中包含java或perl的document,那么你可以建立两个TermQuery并把它们用BooleanQuery连接起来:

TermQuery termQuery1 = new TermQuery(new Term("content","java");

TermQuery termQuery2 = new TermQuery(new Term("content","perl");

BooleanQuery booleanQuery = new BooleanQuery();

booleanQuery.add(termQuery1, BooleanClause.Occur.SHOULD);

booleanQuery.add(termQuery2, BooleanClause.Occur.SHOULD);

7.1.3 WildcardQuery

如果你想对某单词进行通配符查询,你可以用WildcardQuery,通配符包括’?’匹配一个任意字符和’*’匹配零个或多个任意字符,例如你搜索’use*’,你可能找到’useful’或者’useless’:

Query query = new WildcardQuery(newTerm("content", "use*");

7.1.4 PhraseQuery

你可能对中日关系比较感兴趣,想查找‘中’和‘日’挨得比较近(5个字的距离内)的文章,超过这个距离的不予考虑,你可以:

PhraseQuery query = new PhraseQuery();

query.setSlop(5);

query.add(new Term("content ", “中”));

query.add(new Term(“content”, “日”));

那么它可能搜到“中日合作……”、“中方和日方……”,但是搜不到“中国某高层领导说日本欠扁”。

7.1.5 PrefixQuery

如果你想搜以‘中’开头的词语,你可以用PrefixQuery:

PrefixQuery query = new PrefixQuery(newTerm("content ", "中");

7.1.6 FuzzyQuery

FuzzyQuery用来搜索相似的term,使用Levenshtein算法。假设你想搜索跟‘wuzza’相似的词语,你可以:

Query query = new FuzzyQuery(newTerm("content", "wuzza");

你可能得到‘fuzzy’和‘wuzzy’。

7.1.7 RangeQuery

另一个常用的Query是RangeQuery,你也许想搜索时间域从20060101到20060130之间的document.你可以用RangeQuery:

RangeQuery query = new RangeQuery(newTerm(“time”, “20060101”), new Term(“time”, “20060130”), true);

最后的true表示用闭合区间。

7.2 QueryParser

看了这么多Query,你可能会问:“不会让我自己组合各种Query吧,太麻烦了!”当然不会,lucene提供了一种类似于SQL语句的查询语句,我们姑且叫它lucene语句,通过它,你可以把各种查询一句话搞定,lucene会自动把它们拆分成小块交给相应Query执行。下面我们对应每种 Query演示一下:

TermQuery可以用“field:key”方式,例如“content:lucene”。

BooleanQuery中‘与’用‘+’,‘或’用‘| ’,例如“content:java contenterl”。

WildcardQuery仍然用‘?’和‘*’,例如“content:use*”。

PhraseQuery用‘~’,例如“content:"中日"~5”。

PrefixQuery用‘*’,例如“中*”。

FuzzyQuery用‘~’,例如“content: wuzza ~”。

RangeQuery用‘[]’或‘{}’,前者表示闭区间,后者表示开区间,例如“time:[20060101 TO 20060130]”,注意TO区分大小写。

你可以任意组合query string,完成复杂操作,例如“标题或正文包括lucene,并且时间在20060101到20060130之间的文章”可以表示为:“+ (title:lucene content:lucene)+time:[20060101 TO 20060130]”。代码如下:

Directory dir = FSDirectory.getDirectory(PATH, false);

IndexSearcher is = new IndexSearcher(dir);

QueryParser parser = new QueryParser("content", newStandardAnalyzer());

Query query = parser.parse("+(title:lucene content:lucene)+time:[20060101 TO 20060130]";

Hits hits = is.search(query);

for (int i = 0; i < hits.length(); i++)

{

document.doc = hits.doc(i);

System.out.println(doc.get("title");

}

is.close();

首先我们创建一个在指定文件目录上的IndexSearcher。

然后创建一个使用StandardAnalyzer作为分析器的QueryParser,它默认搜索的域是content。

接着我们用QueryParser来parse查询字串,生成一个Query。

然后利用这个Query去查找结果,结果以Hits的形式返回。

这个Hits对象包含一个列表,我们挨个把它的内容显示出来。

7.3 Filter

filter的作用就是限制只查询索引的某个子集,它的作用有点像SQL语句里的 where,但又有区别,它不是正规查询的一部分,只是对数据源进行预处理,然后交给查询语句。注意它执行的是预处理,而不是对查询结果进行过滤,所以使用filter的代价是很大的,它可能会使一次查询耗时提高一百倍。

最常用的filter是RangeFilter和QueryFilter。RangeFilter是设定只搜索指定范围内的索引;QueryFilter是在上次查询的结果中搜索。

Filter的使用非常简单,你只需创建一个filter实例,然后把它传给searcher。

使用Lucene.Net实现全文检索

一 Lucene.Net概述

Lucene.Net是一个C#开发的开源全文索引库,其源码包括“核心”与“外围”两部分。外围部分实现辅助功能,而核心部分包括:

·        Lucene.Net.Index 提供索引管理,词组排序。

·        Lucene.Net.Search 提供查询相关功能。

·        Lucene.Net.Store 支持数据存储管理,主要包括I/O操作。

·        Lucene.Net.Util 公共类。

·        Lucene.Net.Documents 负责描述索引存储时的文件结构管理。

·        Lucene.Net.QueryParsers 提供查询语法。

·        Lucene.Net.Analysis 负责分析文本。

全文检索流程如下:

                             

  一个简单的全文检索实例:

创建索引:

  关键代码形如:

        static void createIndex(string title, string content)
        {
            LN.Analysis.Analyzer analyzer = new LN.Analysis.Standard.StandardAnalyzer();
            LN.Index.IndexWriter iw = new LN.Index.IndexWriter("Index", analyzer, false);
            LN.Documents.Document document = new LN.Documents.Document();
            document.Add(new LN.Documents.Field("title", title, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.TOKENIZED));
            document.Add(new LN.Documents.Field("content", content, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.TOKENIZED));
            iw.AddDocument(document);
            iw.Optimize();
            iw.Close();
        }        

  查询:

   关键代码形如:

     static List<Item> search(string keyWord)
        {
            List<Item> results = new List<Item>();
            LN.Analysis.Analyzer analyzer = new LN.Analysis.Standard.StandardAnalyzer();
            LN.Search.IndexSearcher searcher = new LN.Search.IndexSearcher("Index");
            LN.QueryParsers.MultiFieldQueryParser parser = new LN.QueryParsers.MultiFieldQueryParser(new string[] { "title", "content" }, analyzer);
            LN.Search.Query query = parser.Parse(keyWord);
            LN.Search.Hits hits = searcher.Search(query);
            for (int i = 0; i < hits.Length(); i++)
            {
                LN.Documents.Document doc = hits.Doc(i);
                results.Add(new Item() { Title = doc.Get("title"), Content = doc.Get("content") });
            }
            searcher.Close();
            return results;
        }

二 分词

(一)内置分词器

  分词(切词)是实现全文检索的基础,之所以我们能够让机器理解我们的自然语言,是因为有了分词的帮助。分词工作由Analyzer类完成,它负责把文本切成Token序列,Token就是索引中的单词。Lucene.Net在两个地方用到分词:创建文档索引和分析搜索关键字。其过程示意如下:

  由此可知,在创建索引和搜索时,必须使用同样的分词器,保证其切出相同的Token才能检索到结果。(Lucene.Net把查询关键字中的单词叫做“Term”,Term和Token的文本是一样的,只是某些属性不一样。)

Lucene.Net实现了一些分词器,其对英文支持较好,但是对中文支持欠佳。

  针对内置分词器测试结果如下:

 

 关键代码形如:

        privatestatic List<string> cutWords(string words, Analyzer analyzer)

        {

           List<string> results = new List<string>();

           TokenStream ts = analyzer.ReusableTokenStream("", newStringReader(words));

            Tokentoken;

            while((token = ts.Next()) != null)

            {

               results.Add(token.TermText());

            }

           ts.Close();

            returnresults;

        }   

  可见,除了StandardAnalyzer外,其它分词器对中文基本无法处理,需要用户自行解决。

(二)分词过程

  分词实际是由以下类型完成

查看WhitespaceAnalyzer的部分源码如下:

   public sealed class WhitespaceAnalyzer:Analyzer

    {

        publicoverride TokenStream TokenStream(System.String fieldName, System.IO.TextReaderreader)

        {

            returnnew WhitespaceTokenizer(reader);

        }

     ...

    }

由此可见,WhitespaceAnalyzer的工作都是交给 WhitespaceTokenizer来完成的,并且没有使用筛选器,这也与之前测试的结果相符。我们可以利用TokenStream的派生类型来实现自定义分词器。 例如修改上述代码来得到一个新的分词器,功能类似WhitespaceAnalyzer,不同的是将大写字母变为小写,其代码形如:

public sealed class NewWhitespaceAnalyzer:Analyzer

    {

        publicoverride TokenStream TokenStream(System.String fieldName, System.IO.TextReaderreader)

        {

           TokenStream ts = new WhitespaceTokenizer(reader);

            returnnew LowerCaseFilter(ts);

        }

     ...

    }

(三)中文分词

  显然,用户可以自定义分词器,来实现中文分词。但是,大多数用户不熟悉中文分词算法,同时也没有时间和精力来实现自定义分词,毕竟分词并不是我们系统的核心功能。因此,笔者引用了另一个中文分词组件——盘古分词。测试结果如下:

盘古分词使用步骤如下:

Setp 1:添加相关程序集引用

  这里需要添加2个程序集,PanGu.dll(盘古分词的核心组件)和PanGu.Lucene.Analyzer.dll(盘古分词的Lucene组件)。

Step 2:添加中文分词库

Step 3:添加并设置配置文件

Step 4:在Lucene.Net使用盘古分词

  PanGu.Lucene.Analyzer.dll中定义了 Analyzer的派生类型Lucene.Net.Analysis.PanGu.PanGuAnalyzer,与Tokenizer的派生类 Lucene.Net.Analysis.PanGu.PanGuTokenizer,语法与Lucene.Net内置分词器相同。

Step 5:维护分词库

使用DictManage.exe管理和维护词库:

三索引

(一)索引的存储结构

  为了方便索引大量文档,Lucene.Net中的一个索引包括多个子索引,叫做Segment(段)。每个Segment包括多个可搜索的文档,叫做Document;每个Document包括多个Field;每个Field又包括多个Term。综上所述,Lucene.Net的索引文件的逻辑结构如下:

索引文件的物理表示如下:

  Lucene.Net把一个文档写入索引时,首先生成这个文档的到排索引,然后再把文档的倒排索引合并到段的倒排索引中。

(二)常用类型

·        Directory Lucene.Net的Directory类型实现索引的存储。常用类型继承树如下:

·        IndexWriter 负责将索引写入Directory。Lucene通过设置缓存来提供写索引的速度,IndexWriter有几个参数来调整缓存的大小,控制Segment的数量,以及写索引的频率:

1.    合并因子(mergeFactor) 这个参数决定一个索引块中可以存放多少文档(Document)以及把磁盘上的索引段(Segment)合并成一个大索引段的频率。该参数默认值为10。在默认情况下,缓存中Document数达到10时,所有的文档将写入一个新的Segment。并且,如果Directory的Segment的个数达到 10,这10个索引块会被合并成一个新的Segment。对于大量文档来说,这个值大一些会更好。可以通过“SetMergeFactor(int mergeFactor)”方法来设置、

2.    最小合并文档数(minMergeDocs)、最大缓存文档数(maxBufferedDocs) 默认值为10,它决定缓存中Document数量达到多少才能将他们写入磁盘。该值越大越消耗内存,I/O操作越少。(本处,笔者也有些糊涂,笔者感觉两者类似,不知道具体区别,若理解有误还请读者赐教。)

3.    最大合并文档数(maxMergeDocs) 默认值为Integer.MAX_VALUE,它决定一个索引段(Segment)中的最大文档(Document)数。该值越大越高效,因为默认值以及很大了所以不用改变。

4.    最大域长度(maxFieldLength) 默认值10000,表示截取该域中的前10000个Term,前10000个以外的Term将不被索引和检索。该值可在索引中随时更改,并即时生效(仅对之后的操作生效,一般该值设置为Integer.MAX_VALUE)。

    IndexWriter的常用方法包括:

1.    Flush/Commit Flush方法与Commit方法相同,都是把缓存中的数据提交,可以清除缓存。

2.    Close 无论是否发生异常都必须调用Close方法,该方法将对文件进行解锁,并完成Flush方法的功能。

3.    Optimize Optimize方法用于优化索引,执行相当耗时。

·        Document 包含了可索引文档的信息。每个Document都有一个编号,但该编号并非永远不变。

·        Field 类似实体的某个属性,就像数据库中的一个列,其成员如下:

 (可以看到,Index的某些字段我给出的相同的注释,这是因为向下兼容的目的而具有相同的作用。注:高亮显示将用的TermVector。)

  常用列选项组合及用法如下:

Index

Store

TermVector

用法

NOT_ANSLYZED

YES

NO

文件名、主键

ANSLYZED

YES

WITH_POSITUION_OFFSETS

标题、摘要

ANSLYZED

NO

WITH_POSITUION_OFFSETS

很长的全文

NO

YES

NO

文档类型

NOT_ANSLYZED

NO

NO

隐藏的关键词

(三)创建索引

  创建索引流程如下:

1 基本实现

  其代码形如:

       private static void saveIndex(string dirPath, stringuri, string title, string summary)

        {

            //判断是创建索引还是追加索引

            boolisNew = false;

            if(!LN.Index.IndexReader.IndexExists(dirPath))

            {

               isNew = true;

            }

           LN.Index.IndexWriter iw = new LN.Index.IndexWriter(dirPath, newPanGuAnalyzer(), isNew);//使用PanGuAnalyzer初始化IndexWriter,参数create为true表示创建,为false表示添加。

           LN.Documents.Document document = new LN.Documents.Document();//创建Document

            //添加Field

           document.Add(new LN.Documents.Field("Uri", uri,LN.Documents.Field.Store.YES, LN.Documents.Field.Index.NO));

           document.Add(new LN.Documents.Field("Title", title,LN.Documents.Field.Store.YES, LN.Documents.Field.Index.ANALYZED));

           document.Add(new LN.Documents.Field("CreateTime",

DateTime.Now.ToString("yyyy-MM-dd"),LN.Documents.Field.Store.YES, LN.Documents.Field.Index.NOT_ANALYZED));

           document.Add(new LN.Documents.Field("Summary", summary,LN.Documents.Field.Store.YES, LN.Documents.Field.Index.ANALYZED));

           iw.AddDocument(document);//向索引添加文档

           iw.Optimize();//优化索引

           iw.Close();//关闭索引

        }  

2 权重Boost

  默认情况下,搜索结果以Document.Score作为排序依据,该数值越大排名越靠前。Score与Boost成正比,满分是1,如果某的Document的Score为1,其它文档将根据该文档进行评分,因此不会同时存在多个同时为1的情况。从公式也可看出,Boost不能为0,Boost=0则Score为0。在类型Lucene.Net.Search.Hits这定义了 Score(int)方法,能够获取评分。

  Boost的默认值为1,通过改变权重我们可以影响查询结果。其代码形如:

  “document.SetBoost(2F);”改变Document的权重,将影响所有Field的搜索得分。

  “document.GetField("FieldName").SetBoost(2F);”只改变某个Field的权重。

  boost的数值存储在Norms中,因此要注意Index的设置,设置NO_NORMS将节省索引空间,但是将不支持权重。

  权重的调整建议:

l  标题权重一般比内容高 标题更能够非常准确地描述文档的内容,而且长度比较短,提高权重不会造成严重的影响。

l  不要把包含大量索引的文档的权重设置过高 文档中能索引的词越多,对搜索的影响越大,例如在搜索如“好的”这样常用的词汇时,这篇文章也将位列榜首,但并不是我们需要的。

l  如果能靠设置Field的权重来解决,就不要设置Document的权重 原因与上面的类似,当我们要改变某些关键字的搜索结果时,要尽量减少对其它关键字搜索的影响。

考虑降低权重 对于某些没有意义的文档,考虑降低权重来为相对提升其它文档的搜索排位。

(四)合并索引

  其代码形如:

        privatestatic void mergeIndex(string sourcePath, string targetPath)

        {

           LN.Store.Directory sourceDir =LN.Store.FSDirectory.GetDirectory(sourcePath, false);

           LN.Store.Directory targetDir =LN.Store.FSDirectory.GetDirectory(targetPath, false);

           LN.Index.IndexWriter iw = new LN.Index.IndexWriter(targetPath, newPanGuAnalyzer(), false);

           iw.AddIndexes(new LN.Store.Directory[] { sourceDir });

           iw.Optimize();

           iw.Close();

        }

合并索引功能常用于将内存中的Directory合并到硬盘的Directory中。(通常我们使用这种方法来优化索引创建过程。)

(五)删除索引

    IndexReader,IndexModifer,IndexWriter都提供了DeleteDocuements、DeleteDocument、 DeleteAll方法常来删除索引。因为Document的编号会改变,使用一般不会持久化到数据库中,所以多数情况下会按指定的Term来删除索引。其代码形如:

private static void delIndex(string dirPath, string key)

        {

           LN.Index.IndexWriter iw = new LN.Index.IndexWriter(dirPath, newPanGuAnalyzer(), false);

           iw.DeleteDocuments(new LN.Index.Term("Key", key));

       iw.Optimize();//删除文件后并非从磁盘中移除,而是生成一个.del的文件,需要调用Optimize方法来清除。在清除文件前可以使用UndeleteAll方法恢复(笔者未尝试)

           iw.Close();

        }

 (需要注意的是,如果Field使用的是Index.NO,则表示不建立索引,当然也无法进行删除。)

(六)更新索引

  更新索引时只允许更新整个Docuemnt,无法单独更新Docuemnt中的Field。其代码形如:

        privatestatic void updateIndex(string path, string key, LN.Documents.Document doc)

        {

           LN.Index.IndexWriter iw = new LN.Index.IndexWriter(path, newPanGuAnalyzer(), false);

           iw.UpdateDocument(new LN.Index.Term("Key", key), doc);

           iw.Optimize();

           iw.Close();

        }

(七)优化索引

  通过IndexWriter的Optimize方法优化索引,以加快搜索的速度,该方法提供多个重载,其执行相当耗时,应谨慎使用。优化产生的垃圾文件,在执行Flush/Commit/Close方法后才会被物理删除。Optimize方法及其重载包括:

l  Optimize() 合并段,完成后返回。

l  Optimize(bool doWait) 与Optimize()相同,但立即返回。

l  Optimize(int maxNumSegments) 针对最多maxNumSegments个段进行优化,而并非全部索引。

l  Optimize(int maxNumSegments, bool doWait) 与Optimize(int maxNumSegments)相同,但立即返回。

  (优化索引实际就是在压缩索引文件,需要大约2倍索引大小的临时空间,且特别耗时。一种好的做法是把内存中的索引合并到应硬盘中。)

四搜索

(一)基本查询

        privatestatic List<Item> search(string dirPath, string keywords)

        {

           List<Item> results = new List<Item>();

           LN.Search.IndexSearcher searcher = newLN.Search.IndexSearcher(dirPath);//初始化IndexSearcher

           LN.QueryParsers.MultiFieldQueryParser parser = newLN.QueryParsers.MultiFieldQueryParser(new string[] { "Title","Summary" }, new PanGuAnalyzer());//初始化MultiFieldQueryParser以便同时查询多列

           LN.Search.Query query = parser.Parse(keywords);//初始化Query

           LN.Search.Hits hits = searcher.Search(query);//搜索

            //遍历结果集

            for(int i = 0; i < hits.Length(); i++)

            {

               LN.Documents.Document doc = hits.Doc(i);

               results.Add(new Item() { Title = doc.Get("Title"), Summary =doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri= doc.Get("Uri") });

            }

           searcher.Close();

            returnresults;

   }

以上代码显示了一个基本搜索的例子。搜索的基本过程包括:查询请求解析->搜索->获取匹配的结果集->提取所需数据。搜索主要做两件事情:首先,确定那些文档出现在结果集中;然后,为结果集中的文档打分,分高的排在前面。

  Lucene.Net采用向量空间搜索模型,在向量空间中越接近的文档越相似。向量空间搜索模型比较复杂(详细内容可以参考维基百科),其大致影响因素包括:

·        与关键字在文档中出现的频率成正比

·        与权重成正比

·        与反转文档频率成正比 该值主要受文档总数和包含关键字的文档数量影响,与文档总数成正比,与包含关键字的文档总数成反比,即索引库中文档越多,包含此关键字的文档越少,反转文档频率越高。

·        与保有率成正比  保有率主要受到关键字在Fleld中出现的次数(词频)和Field的长度(Field包含的词数)影响,与词频成正比,与Field的长度成反比,即从越短的Field中搜索出越多的关键字,我们就认为保有率高。

(二)常用类型

·        IndexReader与IndexSearcher IndexReader能够读取索引,IndexSearcher是IndexReader的包装类型,负责搜索。

·        Query及其常用派生类 这组类型用于实现各类查询,常用类型的继承树如下:

·        QueryPaser及其常用派生类 该组类型用于分析用户的输入,并将其转换为Query实例,常用类型的继承树如下:

·        Sort与SortField Sort类型是负责对搜索结果进行排序,可以针对指定的一个或多个域进行排序。SortField用于指定列类型,常用的列类型如下:

·        Filter 这组类型实现对搜索的过滤。常用类型的继承树如下:

·        TermFregVector TermFregVector包含了指定文档的项和词频信息,当在索引期间存储项向量的时候,才能通过IndexReader检索出TermFregVector。

·        Hits Hits用于承载搜索的结果集。

(三)逻辑查询

  查询同时包含多个Term的代码形如:

        privatestatic List<Item> andTermSearch(string dirPath, string[] keywords)

        {

           List<Item> results = new List<Item>();

           LN.Search.IndexSearcher searcher = newLN.Search.IndexSearcher(dirPath);//初始化IndexSearcher

           LN.Search.BooleanQuery bq = new Lucene.Net.Search.BooleanQuery();

            foreach(var item in keywords)

            {

               LN.Index.Term term = new Lucene.Net.Index.Term("Title", item);

               LN.Search.TermQuery tq = new Lucene.Net.Search.TermQuery(term);

               bq.Add(tq, LN.Search.BooleanClause.Occur.MUST);

            }

           LN.Search.Hits hits = searcher.Search(bq);//搜索

            //遍历结果集

            for(int i = 0; i < hits.Length(); i++)

            {

               LN.Documents.Document doc = hits.Doc(i);

               results.Add(new Item() { Title = doc.Get("Title"), Summary =doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri= doc.Get("Uri") });

            }

            searcher.Close();

            returnresults;

        }

   上述代码的核心是“bq.Add(tq, LN.Search.BooleanClause.Occur.MUST);”,Occur的取值及含义如下:

通过改变该值,实现“与”、“或”、“非”操作。“非”操作常常与全匹配查询联合使用,以达到查询不满足某个条件的结果。其代码形如:

LN.Search.MatchAllDocsQuery madq = newLucene.Net.Search.MatchAllDocsQuery();//匹配所有文档

...

bq.Add(tq, LN.Search.BooleanClause.Occur.MUST_NOT);

bq.Add(madq, LN.Search.BooleanClause.Occur.MUST);

...

  BooleanQuery的成员SetMinimumNumberShouldMatch(int min),可以设置需要匹配上的条件的最小数量。

(四)复合查询

  有2种方式实现复合查询,第一种方式是使用MultiFieldQueryParser,该方式已经在之前的代码中给出,还可以使用BooleanQuery,其代码形如:

  private staticList<Item> search(string dirPath, string keywords)

        {

           List<Item> results = new List<Item>();

           LN.Search.IndexSearcher searcher = newLN.Search.IndexSearcher(dirPath);//初始化IndexSearcher

           LN.Search.BooleanQuery bq = new Lucene.Net.Search.BooleanQuery();

           LN.Search.Query qTitle = new Lucene.Net.Search.TermQuery(new Lucene.Net.Index.Term("Title",keywords));

           LN.Search.Query qSummary = new Lucene.Net.Search.TermQuery(newLucene.Net.Index.Term("Summary", keywords));

           bq.Add(qTitle, LN.Search.BooleanClause.Occur.SHOULD);

        bq.Add(qSummary,LN.Search.BooleanClause.Occur.SHOULD);

LN.Search.Hits hits = searcher.Search(bq);//搜索

            //遍历结果集

            for(int i = 0; i < hits.Length(); i++)

            {

               LN.Documents.Document doc = hits.Doc(i);

               results.Add(new Item() { Title = doc.Get("Title"), Summary =doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri= doc.Get("Uri") });

            }

           searcher.Close();

            returnresults;

        }

也可以使用如下形式:

        privatestatic List<Item> search(string dirPath, string keywords)

        {

           List<Item> results = new List<Item>();

           PanGuAnalyzer analyzer = new PanGuAnalyzer();

           LN.Search.IndexSearcher searcher = newLN.Search.IndexSearcher(dirPath);//初始化IndexSearcher

           LN.Search.BooleanQuery bq = new Lucene.Net.Search.BooleanQuery();

           LN.QueryParsers.QueryParser qpTitle = newLucene.Net.QueryParsers.QueryParser("Title", analyzer);

           LN.QueryParsers.QueryParser qpSummary = new Lucene.Net.QueryParsers.QueryParser("Summary",analyzer);

           LN.Search.Query qTitle = qpTitle.Parse(keywords);

LN.Search.Query qSummary = qpSummary.Parse(keywords);

           bq.Add(qTitle, LN.Search.BooleanClause.Occur.SHOULD);

           bq.Add(qSummary, LN.Search.BooleanClause.Occur.SHOULD);

           LN.Search.Hits hits = searcher.Search(bq);//搜索

            //遍历结果集

            for(int i = 0; i < hits.Length(); i++)

            {

               LN.Documents.Document doc = hits.Doc(i);

               results.Add(new Item() { Title = doc.Get("Title"), Summary =doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri= doc.Get("Uri") });

            }

           searcher.Close();

            returnresults;

        }

(五)跨度查询

  对以下内容分词“I come from Beijing.”应用WhitespaceAnalyzer的结果为:“I\come\from\Beijing.”,其跨度如下:

  跨度查询的代码形如:

private static List<Item> search(string dirPath,string keyword1,string keyword2)

        {

           List<Item> results = new List<Item>();

            Analyzer analyzer = newWhitespaceAnalyzer();

           LN.Search.IndexSearcher searcher = newLN.Search.IndexSearcher(dirPath);//初始化IndexSearcher

LN.Search.Spans.SpanNearQuery snp = newLucene.Net.Search.Spans.SpanNearQuery(new Lucene.Net.Search.Spans.SpanQuery[]{

                newLN.Search.Spans.SpanTermQuery(new Lucene.Net.Index.Term("Summary",keyword1)),//第一个关键字

                newLN.Search.Spans.SpanTermQuery(new Lucene.Net.Index.Term("Summary",keyword2))},//第二个关键字

               1,//1个跨度以内

               true);//有序

           LN.Search.Hits hits = searcher.Search(snp);//搜索

            //遍历结果集

            for(int i = 0; i < hits.Length(); i++)

            {

               LN.Documents.Document doc = hits.Doc(i);

               results.Add(new Item() { Title = doc.Get("Title"), Summary =doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri= doc.Get("Uri") });

            }

           searcher.Close();

            returnresults;

        }

  更具上述代码,如果传入“I”,“Beijing.”,则无法查询到,因为我在上例中将最大跨度设置为1,而实际跨度为2。可见,利用跨度查询,可以帮助筛选部分查询结果,时候查询那些关系紧密的关键字。

  从之前的类图可以看到,跨度查询还有几个常用派生类型,其功能如下:

·        SpanFirstQuery 限定只查询前面几个词。

·        SpanRegexQuery 支持正则表达式。

·        SpanNotQuery 包含必须满足的SpanQuery和必须排除的SpanQuery,例如查找包含“First”,但不包含“The”在前面的内容。

·        SpanOrQuery 并操作。

(六)通配符查找

  WildcardQuery支持通配符搜索,其中“*”表示多个字符,“?” 表示1个字符。其代码形如:WildcardQuery query = new WildcardQuery(newLucene.Net.Index.Term("Summary", keyword));//keyword="?o*"。

(七)排序

  Lucene.Net主要有两种方式来控制排序结果,包括使用Sort对象定制排序和影响相关度计算结果。

1 按单列排序

  代码形如:

Sort sort = new Sort();

SortField sf = new SortField("CreateTime",SortField.STRING, true);//true表示逆序

sort.SetSort(sf);

Search.Hits hits = searcher.Search(query, sort);//搜索

2 按多列排序

  代码形如:

Sort sort = new Sort();

SortField sf1 = new SortField("CreateTime", SortField.STRING,true);

SortField sf2 = new SortField("Title",SortField.SCORE, true);

sort.SetSort(new SortField[] { sf1, sf2 });

Search.Hits hits = searcher.Search(query, sort);//搜索

3 自定义排序

  自定义排序功能,需要定义FieldComparatorSource的派生类型,还需要定义自己的比较器,要求其继承FieldComparator。然后重写FieldComparatorSource的 NewComparator方法,并在其中返回自己定义的比较器实例。具体实例,可以参照Lucene.Net源码中的实现。

4 使用查询函数排序

  查询函数将索引中的字符通过某个方法转变为数值,并作为评分来影响查询结果。

FieldScoreQuery fsq = newFieldScoreQuery("Uri", FieldScoreQuery.Type.INT);//将Uri列解释为Int

CustomScoreQuery csq = new CustomScoreQuery(query,fsq);//合并最初的查询分值与当前分值

TopDocs td = searcher.Search(csq, 10);//搜索

//遍历结果集

for (int i = 0; i < td.totalHits; i++)

{

  LN.Documents.Document doc =searcher.Doc(td.scoreDocs[i].doc);

  results.Add(new Item() { Title = doc.Get("Title"),Summary = doc.Get("Summary"), CreateTime =doc.Get("CreateTime"), Uri = doc.Get("Uri") });

}

可以定义自己的评分方法,具体用法可以参考FieldScoreQuery的源码。 

5 设置权重

  权重已在上文给出,不在赘述。

(八)过滤

  使用Filter及其派生类完成对结果集的过滤,也可以定义自己的过滤器。使用过滤的代码形如:

RangeFilter filter = new RangeFilter("CreateTime","19990101", "29991010", true, true);

Search.Hits hits = searcher.Search(query, filter,sort);//搜索

  何时可以使用过滤:

·        根据不同的安全权限显示搜索结果,即查询某个范围内的数据时可以借助过滤器。

·        希望缓存结果时,可以使用支持缓存的过滤器。

五实践中的问题

  本节之前的实例代码,仅针对Lucene.Net的使用进行了梳理,之前实例中的代码并不标准,在实际使用时还需要注意很多问题。本节将对这些问题进行探讨,以帮助读者开发高性能程序。

(一)缓存

  Lucene.Net支持对查询(FieldCache)和排序结果(CachingWrapperFilter)进行缓存。每个IndexSearcher或者IndexReader都有自己的缓存,缓存的生命周期与 IndexSearcher或者IndexReader的实例相同。CachingWrapperFilter针对每个Filter有一个缓存,除此之外还有其他支持缓存的筛选器。为了使缓存利用率最高,推荐使用单例模式来维护一个IndexSearcher实例。

(二)锁

  Lucene.Net借助锁来应对并发问题。其索引访问原则如下:

·        在同一时刻,可以执行多个读操作(检索)。

·        在同一时刻,只能执行一个写操作(创建、优化、修改、删除)。

·        在执行写操作的同时可以同时执行多个读操作。

  可见,在执行写操作时,索引文件会被加锁,以防止其他线程在同一时刻修改索引。加锁实际上是在索引目录下,产生一个锁文件,Lucene.Net一共有两种锁文件——commit.lock、write.lock。查询网上的一些资料发现两者的主要区别:

commit.lock主要与segment合并和读取的操作相关。例如,其出现在IndexWriter的初始化时,当segment的信息被读取完毕,它就会被释放。另外,当调用IndexWriter的AddIndexs()或 MergeSegment()方法时,也会生成这个锁。

writer.lock出现在向索引添加文档时,或是将文档从索引中删除时。 writer.lock会在IndexWriter被初始化时创建,然后会在调用IndexWriter的Close()方法时被释放。另外,会在 IndexReader使用Delete方法

删除文档时创建,并在调用IndexReader的Close()方法时被释放。

  为了能够在出现异常时,得体得处理,最好报Close()放到finally快中。

  注意,使用IndexModifier可以简化开发,IndexModifier对象封装了IndexWriter和IndexReader的常用操作,其内部实现了多线程同步锁定。使用 IndexModifier可避免同时使用 IndexWriter和IndexReader时需要在多个对象之间进行同步的麻烦。

(三)使用内存目录以及多线程查询器提高查询速度

  对内存操作要比硬盘快的多,因此可以利用RAMDirectory来提高查询速度。设计思路为:在RAMDirectory中创建索引,查询时同时查询RAMDirectory与FSDirectory中的索引,并在合适的时候将 RAMDirectory中的索引写入FSDirectory。

  查询时使用ParallelMultiSearcher加快搜索速度。ParallelMultiSearcher为多线程版本的搜索器,查询内存与硬盘上的索引。

(四)总是设置权重

  一般情况下,最好不要使用默认权重,原因很简单,标题中的关键字或者论文关键字栏目中的关键字,具有更高的价值,为了提高命中率,我们应该在创建索引时就有意地提高这些类型的权重。

主要参考文献:

  《盘古分词使用手册》

  《使用C#开发搜索引擎》