http://liyanblog.cn/李岩的博客 李岩 java lucene 搜索 nosql hadoop 博客 mongodb, Lucene2024-03-19T13:32:31+08:00李岩的博客elasticsearch7.1.0 同时配置多个ip,可以同时实现内网,外网同时可访问savagertnullhttp://liyanblog.cn/articles/2019/10/14/1571037955417.html2019-10-14T15:25:55+08:00<h3 class="tb-main-title" data-title="小蓝单车滴滴青桔共享单车骑行31天月卡官方直充全国通用不限次" data-spm-anchor-id="2013.1.iteminfo.i0.d5ee3d4dEyRZhO">#本机的ip地址<br />#network.host: 10.200.1.1<br />network.bind_host: ["10.200.1.1","192.168.1.1"] #可以绑定多个ip,因此我们可以把外网和内网ip都配上,相同云平台用内网ip访问,不同云平台用外网ip访问<br />network.publish_host: 10.200.1.1 #示发布地址,是唯一的。用来集群各节点的相互通信</h3>【nlp】中文分词基础原则及正向最大匹配法、逆向最大匹配法、双向最大匹配法的分析savagertnullhttp://liyanblog.cn/articles/2019/05/28/1559013283888.html2019-05-28T11:14:44+08:00<div class="postTitle"> </div>
<div id="cnblogs_post_body" class="blogpost-body">
<p>分词算法设计中的几个基本原则:</p>
<p>1、颗粒度越大越好:用于进行语义分析的文本分词,要求分词结果的颗粒度越大,即单词的字数越多,所能表示的含义越确切,如:“公安局长”可以分为“公安 局长”、“公安局 长”、“公安局长”都算对,但是要用于语义分析,则“公安局长”的分词结果最好(当然前提是所使用的词典中有这个词)</p>
<p>2、切分结果中非词典词越少越好,单字字典词数越少越好,这里的“非词典词”就是不包含在词典中的单字,而“单字字典词”指的是可以独立运用的单字,如“的”、“了”、“和”、“你”、“我”、“他”。例如:“技术和服务”,可以分为“技术 和服 务”以及“技术 和 服务”,但“务”字无法独立成词(即词典中没有),但“和”字可以单独成词(词典中要包含),因此“技术 和服 务”有1个非词典词,而“技术 和 服务”有0个非词典词,因此选用后者。</p>
<p>3、总体词数越少越好,在相同字数的情况下,总词数越少,说明语义单元越少,那么相对的单个语义单元的权重会越大,因此准确性会越高。</p>
<p> </p>
<p>下面详细说说正向最大匹配法、逆向最大匹配法和双向最大匹配法具体是如何进行的:</p>
<p>先说说什么是最大匹配法:最大匹配是指以词典为依据,取词典中最长单词为第一个次取字数量的扫描串,在词典中进行扫描(为提升扫描效率,还可以跟据字数多少设计多个字典,然后根据字数分别从不同字典中进行扫描)。例如:词典中最长词为“中华人民共和国”共7个汉字,则最大匹配起始字数为7个汉字。然后逐字递减,在对应的词典中进行查找。</p>
<p>下面以“我们在野生动物园玩”详细说明一下这几种匹配方法:</p>
<p><span style="font-size: 18px; color: #ff0000;">1、正向最大匹配法:</span></p>
<p>正向即从前往后取词,从7->1,每次减一个字,直到词典命中或剩下1个单字。</p>
<p>第1次:“我们在野生动物”,扫描7字词典,无</p>
<p>第2次:“我们在野生动”,扫描6字词典,无</p>
<p>。。。。</p>
<p>第6次:“我们”,扫描2字词典,有</p>
<p>扫描中止,输出第1个词为“我们”,去除第1个词后开始第2轮扫描,即:</p>
<p>第2轮扫描:</p>
<p>第1次:“在野生动物园玩”,扫描7字词典,无</p>
<p>第2次:“在野生动物园”,扫描6字词典,无</p>
<p>。。。。</p>
<p>第6次:“在野”,扫描2字词典,有</p>
<p>扫描中止,输出第2个词为“在野”,去除第2个词后开始第3轮扫描,即:</p>
<p>第3轮扫描:</p>
<p>第1次:“生动物园玩”,扫描5字词典,无</p>
<p>第2次:“生动物园”,扫描4字词典,无</p>
<p>第3次:“生动物”,扫描3字词典,无</p>
<p>第4次:“生动”,扫描2字词典,有</p>
<p>扫描中止,输出第3个词为“生动”,第4轮扫描,即:</p>
<p>第4轮扫描:</p>
<p>第1次:“物园玩”,扫描3字词典,无</p>
<p>第2次:“物园”,扫描2字词典,无</p>
<p>第3次:“物”,扫描1字词典,无</p>
<p>扫描中止,输出第4个词为“物”,非字典词数加1,开始第5轮扫描,即:</p>
<p>第5轮扫描:</p>
<p>第1次:“园玩”,扫描2字词典,无</p>
<p>第2次:“园”,扫描1字词典,有</p>
<p>扫描中止,输出第5个词为“园”,单字字典词数加1,开始第6轮扫描,即:</p>
<p>第6轮扫描:</p>
<p>第1次:“玩”,扫描1字字典词,有</p>
<p>扫描中止,输出第6个词为“玩”,单字字典词数加1,整体扫描结束。</p>
<p>正向最大匹配法,最终切分结果为:“我们/在野/生动/物/园/玩”,其中,单字字典词为2,非词典词为1。</p>
<p><span style="font-size: 18px; color: #ff0000;">2、逆向最大匹配法:</span></p>
<p>逆向即从后往前取词,其他逻辑和正向相同。即:</p>
<p>第1轮扫描:“在野生动物园玩”</p>
<p>第1次:“在野生动物园玩”,扫描7字词典,无</p>
<p>第2次:“野生动物园玩”,扫描6字词典,无</p>
<p>。。。。</p>
<p>第7次:“玩”,扫描1字词典,有</p>
<p>扫描中止,输出“玩”,单字字典词加1,开始第2轮扫描</p>
<p>第2轮扫描:“们在野生动物园”</p>
<p>第1次:“们在野生动物园”,扫描7字词典,无</p>
<p>第2次:“在野生动物园”,扫描6字词典,无</p>
<p>第3次:“野生动物园”,扫描5字词典,有</p>
<p>扫描中止,输出“野生动物园”,开始第3轮扫描</p>
<p>第3轮扫描:“我们在”</p>
<p>第1次:“我们在”,扫描3字词典,无</p>
<p>第2次:“们在”,扫描2字词典,无</p>
<p>第3次:“在”,扫描1字词典,有</p>
<p>扫描中止,输出“在”,单字字典词加1,开始第4轮扫描</p>
<p>第4轮扫描:“我们”</p>
<p>第1次:“我们”,扫描2字词典,有</p>
<p>扫描中止,输出“我们”,整体扫描结束。</p>
<p>逆向最大匹配法,最终切分结果为:“我们/在/野生动物园/玩”,其中,单字字典词为2,非词典词为0。</p>
<p><span style="font-size: 18px; color: #ff0000;">3、双向最大匹配法:</span></p>
<p>正向最大匹配法和逆向最大匹配法,都有其局限性,我举得例子是正向最大匹配法局限性的例子,逆向也同样存在(如:长春药店,逆向切分为“长/春药店”),因此有人又提出了双向最大匹配法,双向最大匹配法。即,两种算法都切一遍,然后根据大颗粒度词越多越好,非词典词和单字词越少越好的原则,选取其中一种分词结果输出。</p>
<p>如:“我们在野生动物园玩”</p>
<p>正向最大匹配法,最终切分结果为:“我们/在野/生动/物/园/玩”,其中,两字词3个,单字字典词为2,非词典词为1。</p>
<p>逆向最大匹配法,最终切分结果为:“我们/在/野生动物园/玩”,其中,五字词1个,两字词1个,单字字典词为2,非词典词为0。</p>
<p>非字典词:正向(1)>逆向(0)(越少越好)</p>
<p>单字字典词:正向(2)=逆向(2)(越少越好)</p>
<p>总词数:正向(6)>逆向(4)(越少越好)</p>
<p>因此最终输出为逆向结果。</p>
</div>lucene Occur.SHOULD MUSTsavagertnullhttp://liyanblog.cn/articles/2013/11/19/1384853255034.html2013-11-19T17:27:54+08:00<pre class="best-text mb-10">MUST和MUST:取得两个查询子句的交集。 <br />MUST和MUST_NOT:表示查询结果中不能包含MUST_NOT所对应得查询子句的检索结果。<br />MUST_NOT和MUST_NOT:无意义,检索无结果。 <br />SHOULD与MUST、SHOULD与MUST_NOT:SHOULD与MUST连用时,无意义,结果为MUST子句的检索结果。与MUST_NOT连用时,功能同MUST。 <br />SHOULD与SHOULD:表示“或”关系,最终检索结果为所有检索子句的并集。</pre>lucene算分排序savagertnullhttp://liyanblog.cn/articles/2012/11/13/1352773433787.html2013-03-06T10:46:31+08:00<p>Lucene 评分体系/机制(lucene scoring)是 Lucene 出名的一核心部分。它对用户来说隐藏了很多复杂的细节,致使用户可以简单地使用 lucene。但个人觉得:如果要根据自己的应用调节评分(或结构排序),十分有必须深入了解 lucene 的评分机制。</p>
<p>Lucene scoring 组合使用了 信息检索的向量空间模型 和 布尔模型 。</p>
<p>首先来看下 lucene 的评分公式(在 Similarity 类里的说明)</p>
<table border="1" cellspacing="0" cellpadding="1" align="center">
<tbody>
<tr>
<td>
<table border="0" cellspacing="0" cellpadding="1" align="center">
<tbody>
<tr>
<td align="right" valign="center">score(q,d) = coord(q,d) · queryNorm(q) ·</td>
<td align="middle" valign="bottom"><big><big><big>∑</big></big></big></td>
<td align="right" valign="center"><big><big>(</big></big> tf(t in d) · idf(t)<sup>2</sup> · t.getBoost() · norm(t,d) <big><big>)</big></big></td>
</tr>
<tr>
<td> </td>
<td align="middle"><small>t in q</small></td>
<td> </td>
</tr>
</tbody>
</table>
</td>
</tr>
</tbody>
</table>
<p>其中:</p>
<ol>
<li><strong>tf(t in d)</strong> 关联到项频率,项频率是指 <span>项</span> t 在 <span>文档</span> d 中出现的次数 frequency。默认的实现是:<br />
<table border="0" cellspacing="2" cellpadding="2" align="center">
<tbody>
<tr>
<td align="right" valign="center">tf(t in d) =</td>
<td align="middle" valign="top">frequency<sup><big>½<br /></big></sup></td>
</tr>
</tbody>
</table>
</li>
<li><strong>idf(t)</strong> 关联到反转文档频率,文档频率指出现 <span>项</span> t 的文档数 docFreq。docFreq 越少 idf 就越高(物以稀为贵),但在同一个查询下些值是相同的。默认实现:<br />
<table border="0" cellspacing="2" cellpadding="2" align="center">
<tbody>
<tr>
<td align="right" valign="center">idf(t) =</td>
<td align="middle" valign="center">1 + log <big>(</big></td>
<td align="middle" valign="center">
<table border="0">
<tbody>
<tr>
<td align="middle"><small>numDocs</small></td>
</tr>
<tr>
<td align="middle">–––––––––</td>
</tr>
<tr>
<td align="middle"><small>docFreq+1</small></td>
</tr>
</tbody>
</table>
</td>
<td align="middle" valign="center"><big>)<br /></big></td>
</tr>
</tbody>
</table>
</li>
<li><strong>coord(q,d) </strong>评分因子,是基于文档中出现查询项的个数。越多的查询项在一个文档中,说明些文档的匹配程序越高。默认是出现查询项的百分比。</li>
<li><strong>queryNorm(q)</strong>查询的标准查询,使不同查询之间可以比较。此因子不影响文档的排序,因为所有有文档都会使用此因子。默认值:<br />
<table border="0" cellspacing="0" cellpadding="1" align="center">
<tbody>
<tr>
<td align="right" valign="center">queryNorm(q) = queryNorm(sumOfSquaredWeights) =</td>
<td align="middle" valign="center">
<table border="0">
<tbody>
<tr>
<td align="middle"><big><span>1</span></big></td>
</tr>
<tr>
<td align="middle"><big><span>––––––––––––––</span></big></td>
</tr>
<tr>
<td align="middle"><span><span>sumOfSquaredWeights</span></span><sup><sup><big><span><span>½</span></span></big></sup></sup>
<p> </p>
</td>
</tr>
</tbody>
</table>
</td>
</tr>
</tbody>
</table>
<p>每个查询项权重的平分方和(sumOfSquaredWeights)由 Weight 类完成。例如 BooleanQuery 地计算:</p>
<table border="0" cellspacing="0" cellpadding="1" align="center">
<tbody>
<tr>
<td align="right" valign="center">sumOfSquaredWeights = q.getBoost() <sup><big>2</big></sup> ·</td>
<td align="middle" valign="bottom"><big><big><big>∑</big></big></big></td>
<td align="right" valign="center"><big><big>(</big></big> idf(t) · t.getBoost() <big><big>) <sup>2</sup></big></big></td>
</tr>
<tr>
<td> </td>
<td align="middle"><small>t in q</small></td>
<td><span> </span></td>
</tr>
</tbody>
</table>
</li>
<li><strong>t.getBoost()</strong>查询时期的 项 t 加权(如:java^1.2),或者由程序使用 setBoost()。</li>
<li><strong>norm(t,d)</strong>压缩几个索引期间的加权和长度因子:
<ul>
<li><strong>Document boost</strong> - 文档加权,在索引之前使用 doc.setBoost()</li>
<li><strong>Field boost</strong> - 字段加权,也在索引之前调用 field.setBoost()</li>
<li><strong>lengthNorm(field)</strong> - 由字段内的 Token 的个数来计算此值,字段越短,评分越高,在做索引的时候由 Similarity.lengthNorm 计算。</li>
</ul>
<div>以上所有因子相乘得出 norm 值,如果文档中有相同的字段,它们的加权也会相乘:
<p> </p>
<table border="0" cellspacing="0" cellpadding="1" align="center">
<tbody>
<tr>
<td align="right" valign="center">norm(t,d) = doc.getBoost() · lengthNorm(field) ·</td>
<td align="middle" valign="bottom"><big><big><big>∏</big></big></big></td>
<td align="right" valign="center">f.getBoost()</td>
</tr>
<tr>
<td> </td>
<td align="middle"><small>field <em><strong>f</strong></em> in <em>d</em> named as <em><strong>t</strong></em></small></td>
<td> </td>
</tr>
</tbody>
</table>
<p>索引的时候,把 norm 值压缩(encode)成一个 byte 保存在索引中。搜索的时候再把索引中 norm 值解压(decode)成一个 float 值,这个 encode/decode 由 Similarity 提供。官方说:这个过程由于精度问题,以至不是可逆的,如:decode(encode(0.89)) = 0.75。</p>
</div>
</li>
</ol>
<p>计算这个评分涉及到几个核心的类/接口:Similarity、Query、Weight、Scorer、Searcher,由它们或其子类来完成评分的计算。先来看下它们的类图:</p>
<div id="attachment_1223" class="wp-caption alignnone"><a href="http://blog.chenlb.com/wp-content/uploads/2009/08/lucene-search-score-uml.jpg" target="_blank" rel="lightbox"><img class="size-medium wp-image-1223 " title="lucene-search-score-uml" src="http://blog.chenlb.com/wp-content/uploads/2009/08/lucene-search-score-uml-600x533.jpg" alt="lucene search score uml" width="600" height="533" /></a>
<p class="wp-caption-text">lucene search score uml, 点击放大</p>
</div>
<p>搜索中,评分的过程:</p>
<ol>
<li>创建一个查询对象 Query,传给 Searcher,具体来讲可能是 IndexSearcher。</li>
<li>Searcher 根据 Query 创建一个对应的 Weight(是 Query 的内部特征表示),接着 Weight 会创建对应的 Scorer。</li>
<li>Searcher 会创建 Hitcollector 并传到 Scorer,scorer 找到匹配的文档并计算评分,最后写到 Hitcollector 中。</li>
</ol>
<p>Query、Weight、Scorer 三都关系十分密切,尤其是 Query 和 Weight。Weight 是计算查询权重和创建 Scorer 的。Query 为了可以重用把内部的特征抽象为 Weight,由子类去完成一些相关评分的计算。</p>
<p>任何 Searcher 依赖的状态都存储在 Weight 实现中,而不是在Query 中,这样可以重用 Query。</p>
<p>Weight 的生命周期(被使用):</p>
<ol>
<li>Weight 由顶层的 Query 创建。Query.createWeight(Searcher),创建的 Weight 给 Searcher 去使用。</li>
<li>当用 Similarity.queryNorm(float) 来计算查询标准化因子(query normalization)的时候,Weight.sumOfSquaredWeights() 会被调用。</li>
<li>查询标准化因子(query normalization)会传给 Weight.normalize(float)计算,这个时候权重(weighting)计算完成。</li>
<li>创建一个 Scorer。</li>
</ol>
<p><strong>自定义评分的计算</strong></p>
<p>可以实现一个 Similarity 换掉默认的。它仅限于 Scorer、Weight 计算好的因子值再加工。要想对评分有更强的控制力,可以实现一套 Query、Weight、Scorer。</p>
<ul>
<li>Query 是用户信息需要的抽象</li>
<li>Weight 是 Query 的内部特性表示的抽象</li>
<li>Scorer 抽象公用的计算评分功能,提供计算评分和解说(explanation)评分的能力。</li>
</ul>
<p>Query 子类实现的方法:</p>
<ol>
<li>createWeight(Searcher searcher) -- Weight 是 Query 内部代表,所以每个 Query 都必实现一个 Weight,此方法就是生成一个Query对应的Weight对象。</li>
<li>rewrite(IndexReader reader) -- 重写查询为原始的查询,原始的查询有:TermQuery,BooleanQuery……</li>
</ol>
<p>Weight 接口方法:</p>
<ol>
<li>Weight#getQuery() -- 指出代表 Weight 的 Query。</li>
<li>Weight#getValue() -- Query 的权重,例如:TermQuery.TermWeight 的 value = idf^2 * boost * queryNorm</li>
<li>Weight#sumOfSquaredWeights() -- 各查询项的平方和,如,TermWeight 的 = (idf * boost)^2</li>
<li>Weight#normalize(float) -- 决定查询标准化的因子,查询标准化值可以在不同 Query 比较 score</li>
<li>Weight#scorer(IndexReader) -- 创建 Query 对应的评分器 Scorer,它的责任是给 Query 匹配到的文档评分。</li>
<li>Weight#explain(IndexReader, int) -- 给指定的文档详细解说评分值是怎么得来了。</li>
</ol>
<p>Scorer 子类实现的方法:</p>
<ol>
<li>Scorer#next() -- 预取匹配到的下一文档,有才返回 true。</li>
<li>Scorer#doc() -- 返回当前匹配到的文档id,它必须 next() 调用后才有效。</li>
<li>Scorer#score() -- 返回当前文档的评分,此值可以由应用程序以任何适当的方式给出,如 TermScorer 返回 tf * Weight.getValue() * fieldNorm</li>
<li>Scorer#skipTo(int) -- 跳到大于或等于 int 的匹配文档上。很多情况下,在结果集中 skipTo 比较循环更加快速高效。</li>
<li>Scorer#explain(int) -- 给出评分产生的细节。</li>
</ol>
<p>要实现一套 Query、Weight、Scorer,最好还是看下 TermQuery、TermWeight、TermScorer。</p>
<p>当 Lucene 中没有想要的查询时(包括不同的评分细节),自定义Query 可能帮得上忙。</p>如何提高Lucene的搜索速度savagertnullhttp://liyanblog.cn/articles/2012/11/02/1351841628128.html2013-03-06T10:23:59+08:00<div class="content-head clearfix">
<h2 class="title content-title">如何提高Lucene的搜索速度</h2>
</div>
<div id="content" class="content mod-cs-content text-content clearfix">
<ul>
<li>
<p><strong>确保你使用的是最新版本的Lucene。</strong></p>
</li>
<li>
<p><strong>使用本地文件系统。</strong><br />远程文件系统搜索的速度总是会慢一些。如果你的索引必须放在远程文件系统之上,那么可以考虑把远程文件系统用“只读方式”加载(mount)。某些时候这会改善性能。 </p>
</li>
<li>
<p><strong>使用更快的硬件,尤其是更快的IO系统。</strong><br />固态硬盘(solid-state disk,SSD)非常适合Lucene的搜索。SSD的寻道时间大概是传统磁盘式硬盘的100倍,也就是说常见的寻道时间造成的开销几乎可以忽略掉了。也就是说装有SSD的机器无需太多的内存作为文件缓存,搜索器在允许反应之前需要的预热(warm-up)时间更短。 </p>
</li>
<li>
<p><strong>调节操作系统。</strong><br />Linux可以调节的一个典型的参数是swappiness(参看http://kerneltrap.org/node/3000,译注:可理解为交换系统,调节物理内存和交换分区使用倾向的),这个参数控制了操作系统把内存交换出到IO缓存的倾向性。这个参数在大多数Linux发行版中的默认设置都是一个很大的数(也就是说,倾向于交换分区),这容易造成严重的搜索延迟,特别是在查询频率不高的情况下,搜索一个大的索引时。请尝试把swappiness调低,甚至关闭(把它设置为0)。Windows也有一个选框,在我的电脑->属性->高级->性能设置->内存使用,允许你选择倾向于应用程序还是系统缓存,好像也是起这个作用的。 </p>
</li>
<li>
<p><strong>使用readOnly=true选项打开IndexReader。</strong><br />在多线程共享同一个reader的时候这将起巨大的作用,因为这样会去掉处理线程冲突的代码。 </p>
</li>
<li>
<p><strong>在非Windows平台,使用NIOFSDirectory取代FSDirectory。</strong><br />这样访问这些文件的时候,也会去掉处理线程冲突的代码。不幸的是,由于Sun JRE Windows版本长期存在的bug(http://bugs.sun.com/bugdatabase/view_bug.do?bug_id=6265734),NIOFSDirectory在Windows下表现很差。 </p>
</li>
<li>
<p><strong>使用</strong>IndexSearcher的同一个实例。<br />在程序的查询和线程之间,使用单一的一个IndexSearcher的实例。 </p>
</li>
<li>
<p><strong>测量性能的时候,忽视第一条查询。</strong><br />对搜索器的第一次查询,要付出初始化缓存的代价(特别是按照字段排序的时候),会干扰你的结论(假设你重用搜索器进行多次查存)。另外一方面,如果你一遍遍的重复同样的查询,结论也会被扭曲,因为操作系统会使用它的缓存加速IO操作。Linux(核心2.6.16或者更新版本)下,你可以用命令 sync ; echo 3 > /proc/sys/vm/drop_caches 来清空缓存。参见http://linux-mm.org/Drop_Caches。 </p>
</li>
<li>
<p><strong>仅在需要的时候重新打开</strong>IndexSearcher。<br />只有在需要让最新提交的更新出现在搜索中的时候,才应该重新打开IndexSearcher。注意,重新打开搜索器有它的开销(在大的索引和排序打开的情况下可以被察觉到的),必须将这一开销最小化。可以考虑在面对第一个查询之前,使用预热技术对缓存进行预热。 </p>
</li>
<li>
<p><strong>搜索前对你的索引进行</strong>优化(optimize)。<br />优化(optimize)过的索引只有一个段,这样通常比多个段速度快得多,尤其是对于大的索引。如果你的程序不经常更新索引,那么最好是,先构建索引,然后优化,使用优化过的索引进行搜索。如果你的索引更新频率很高,而且更新后就要刷新搜索器的话,那么优化对你的开销就太大了,你可以采用降低合并因子的方法。 </p>
</li>
<li>
<p><strong>降低</strong>合并因子(mergeFactor)。<br />小的合并因子意味着更少的段和更快的搜索。然而,这将降低索引的速度,所以,你应该测试这个值,直到找到对于你的程序满足平衡的值。 </p>
</li>
<li>
<p><strong>限制保存字段和词向量的使用。</strong><br />从索引中获取这些信息开销太大。一般来说,你应该只获取用户看前可见的“页”内的条目的这些信息,而不是整个结果集的。针对每个获取的文档,Lucene必须寻道到不同文件的不同位置。尝试首先用docID排序你要获取的文档(译注:有可能提高寻道效率)。 </p>
</li>
<li>
<p><strong>在你获取一个文档时,使用</strong>FieldSelector仔细的选择要载入哪些字段,以及如何载入他们。</p>
</li>
<li>
<p><strong>不要枚举比所需命中结果更多的结果。</strong><br />枚举所有的命中很慢,有两个原因。首先,返回Hits对象的search()方法在你需要超过100个命中的时候,需要内部重新执行搜索。解决方法:用带有HitCollector的search方法代替。其次,命中通常遍布磁盘的每个角落,访问全部需要大量的I/O活动。这很难避免,除非索引小到可以直接放到内存里。如果你不需要完整的文档,而只需要一个(小的)字段,那么你可以用FieldCache类来缓存它,这样就可以告诉访问它了。 </p>
</li>
<li>
<p><strong>使用模糊查询(fuzzy query)的时候设置最小的前缀长度。</strong><br />模糊查询执行耗费CPU的字符串比较──要避免将用户输入的词和所有的索引的词项进行比较,应该只比较前“N”个字符相同的词项。前缀长度是QueryParser和FuzzyQuery都有的参数,默认为0,所有的词项都要比较。 </p>
</li>
<li>
<p><strong>考虑使用过滤器(</strong>filter)。<br />把结果限定在索引的一部分时,使用缓存的位域过滤器比使用查询条件高效得多。尤其是在限制条件包含了一个大索引的大量文档时。过滤器通常用于限定一个分类下的结果,但是可以在很多中情况下替代任何查询条件。查询和过滤之间的一个区别在于,查询影响结果评分,过滤不影响。 </p>
</li>
<li>
<p><strong>找到瓶颈。</strong><br />复杂的查询分析或者对结果过度处理,是隐藏的搜索瓶颈的例子。使用VisualVM这样的工具profile程序可以帮助定位这些问题。 </p>
</li>
</ul>
</div>IK Analyzer 这个名字起源savagertnullhttp://liyanblog.cn/articles/2012/11/01/1351757246731.html2012-11-01T16:07:26+08:00<div class="content-head clearfix">
<h2 class="title content-title">IK Analyzer 这个名字起源</h2>
</div>
<div id="content" class="content mod-cs-content text-content clearfix">
<p><strong>JavaEye:10. 为什么给这个项目起IK Analyzer 这个名字呢?</strong><br /><br />linliangyi2007:呵呵,这个问题问的好,我很喜欢Diablo,尤其是Diablo II,我玩暗黑7年了。暗黑中有个角色,野蛮人哦,它的终极套装就是“不朽之王Immortal King”,IK诞生的那一天,刚好是我打出一整套套装的那一天,于是就用这个套装的名字做纪念了,呵呵,感谢暴雪,感谢JavaEye,感谢CCAV。。。 <img src="http://interview.group.iteye.com/images/smiles/icon_biggrin.gif" alt="" /> 听说java也是这么命名的,当时的设计人员正在喝java咖啡来着…… </p>
</div>lucene 语法savagertnullhttp://liyanblog.cn/articles/2012/10/23/1350962313735.html2012-10-23T11:18:33+08:00<div class="content-head clearfix">
<h2 class="title content-title">lucene 语法</h2>
</div>
<div id="content" class="content mod-cs-content text-content clearfix"><strong>(1) 语法关键字</strong>
<p>+ - && || ! ( ) { } [ ] ^ " ~ * ? : \</p>
<p>如果所要查询的查询词中本身包含关键字,则需要用\进行转义 <strong>(2) 查询词(Term)</strong></p>
<p>Lucene支持两种查询词,一种是单一查询词,如"hello",一种是词组(phrase),如"hello world"。 <strong>(3) 查询域(Field)</strong></p>
<p>在查询语句中,可以指定从哪个域中寻找查询词,如果不指定,则从默认域中查找。</p>
<p>查询域和查询词之间用:分隔,如title:"Do it right"。</p>
<p>:仅对紧跟其后的查询词起作用,如果title:Do it right,则仅表示在title中查询Do,而it right要在默认域中查询。 <strong>(4) 通配符查询(Wildcard)</strong></p>
<p>支持两种通配符:?表示一个字符,*表示多个字符。</p>
<p>通配符可以出现在查询词的中间或者末尾,如te?t,test*,te*t,但决不能出现在开始,如*test,?test。 <strong>(5) 模糊查询(Fuzzy)</strong></p>
<p>模糊查询的算法是基于Levenshtein Distance,也即当两个词的差别小于某个比例的时候,就算匹配,如roam~0.8,即表示差别小于0.2,相似度大于0.8才算匹配。 <strong>(6) 临近查询(Proximity)</strong></p>
<p>在词组后面跟随~10,表示词组中的多个词之间的距离之和不超过10,则满足查询。</p>
<p>所谓词之间的距离,即查询词组中词为满足和目标词组相同的最小移动次数。</p>
<p>如索引中有词组"apple boy cat"。</p>
<p>如果查询词为"apple boy cat"~0,则匹配。</p>
<p>如果查询词为"boy apple cat"~2,距离设为2方能匹配,设为1则不能匹配。</p>
<p>(0)</p>
<p>boy</p>
<p>apple</p>
<p>cat</p>
<p>(1)</p>
<p>boy</p>
<p>apple</p>
<p>cat</p>
<p>(2)</p>
<p>apple</p>
<p>boy</p>
<p>cat</p>
<p>如果查询词为"cat boy apple"~4,距离设为4方能匹配。</p>
<p>(0)</p>
<p>cat</p>
<p>boy</p>
<p>apple</p>
<p>(1)</p>
<p>cat</p>
<p>boy</p>
<p>apple</p>
<p>(2)</p>
<p>boy</p>
<p>cat</p>
<p>apple</p>
<p>(3)</p>
<p>boy</p>
<p>apple</p>
<p>cat</p>
<p>(4)</p>
<p>apple</p>
<p>boy</p>
<p>cat <strong>(7) 区间查询(Range)</strong></p>
<p>区间查询包含两种,一种是包含边界,用[A TO B]指定,一种是不包含边界,用{A TO B}指定。</p>
<p>如date:[20020101 TO 20030101],当然区间查询不仅仅用于时间,如title:{Aida TO Carmen} <strong>(8) 增加一个查询词的权重(Boost)</strong></p>
<p>可以在查询词后面加^N来设定此查询词的权重,默认是1,如果N大于1,则说明此查询词更重要,如果N小于1,则说明此查询词更不重要。</p>
<p>如jakarta^4 apache,"jakarta apache"^4 "Apache Lucene" <strong>(9) 布尔操作符</strong></p>
<p>布尔操作符包括连接符,如AND,OR,和修饰符,如NOT,+,-。</p>
<p>默认状态下,空格被认为是OR的关系,QueryParser.setDefaultOperator(Operator.AND)设置为空格为AND。</p>
<p>+表示一个查询语句是必须满足的(required),NOT和-表示一个查询语句是不能满足的(prohibited)。 <strong>(10) 组合</strong></p>
<p>可以用括号,将查询语句进行组合,从而设定优先级。</p>
<p>如(jakarta OR apache) AND website</p>
<p>Lucene的查询语法是由QueryParser来进行解析,从而生成查询对象的。</p>
<p>通过编译原理我们知道,解析一个语法表达式,需要经过词法分析和语法分析的过程,也即需要词法分析器和语法分析器。</p>
<p>QueryParser是通过JavaCC来生成词法分析器和语法分析器的。</p>
</div>lucene语法savagertnullhttp://liyanblog.cn/articles/2012/10/23/1350962297250.html2013-03-05T16:43:39+08:00<div class="content-head clearfix">
<h2 class="title content-title">lucene语法</h2>
</div>
<div id="content" class="content mod-cs-content text-content clearfix">Overview
<p>Although Lucene provides the ability to create your own queries through its API, it also provides a rich query language through the Query Parser, a lexer which interprets a string into a Lucene Query using JavaCC.</p>
<p>Generally, the query parser syntax may change from release to release. This page describes the syntax as of the current release. If you are using a different version of Lucene, please consult the copy of docs/queryparsersyntax.html that was distributed with the version you are using.</p>
<p>Before choosing to use the provided Query Parser, please consider the following:</p>
<ol>
<li>If you are programmatically generating a query string and then parsing it with the query parser then you should seriously consider building your queries directly with the query API. In other words, the query parser is designed for human-entered text, not for program-generated text.</li>
<li>Untokenized fields are best added directly to queries, and not through the query parser. If a field's values are generated programmatically by the application, then so should query clauses for this field. An analyzer, which the query parser uses, is designed to convert human-entered text to terms. Program-generated values, like dates, keywords, etc., should be consistently program-generated.</li>
<li>In a query form, fields which are general text should use the query parser. All others, such as date ranges, keywords, etc. are better added directly through the query API. A field with a limit set of values, that can be specified with a pull-down menu should not be added to a query string which is subsequently parsed, but rather added as a TermQuery clause.</li>
</ol>
<p><span style="font-size: 12px;">Terms</span></p>
<p>A query is broken up into terms and operators. There are two types of terms: Single Terms and Phrases.</p>
<p>A Single Term is a single word such as "test" or "hello".</p>
<p>A Phrase is a group of words surrounded by double quotes such as "hello dolly".</p>
<p>Multiple terms can be combined together with Boolean operators to form a more complex query (see below).</p>
<p>Note: The analyzer used to create the index will be used on the terms and phrases in the query string. So it is important to choose an analyzer that will not interfere with the terms used in the query string.</p>
<p><a name="N10048"></a><a name="Fields"></a></p>
Fields
<p>Lucene supports fielded data. When performing a search you can either specify a field, or use the default field. The field names and default field is implementation specific.</p>
<p>You can search any field by typing the field name followed by a colon ":" and then the term you are looking for.</p>
<p>As an example, let's assume a Lucene index contains two fields, title and text and text is the default field. If you want to find the document entitled "The Right Way" which contains the text "don't go this way", you can enter:</p>
title:"The Right Way" AND text:go
<p>or</p>
title:"Do it right" AND right
<p>Since text is the default field, the field indicator is not required.</p>
<p>Note: The field is only valid for the term that it directly precedes, so the query</p>
title:Do it right
<p>Will only find "Do" in the title field. It will find "it" and "right" in the default field (in this case the text field).</p>
<p><a name="N1006D"></a><a name="Term Modifiers"></a></p>
Term Modifiers
<p>Lucene supports modifying query terms to provide a wide range of searching options.</p>
<a name="N10076"></a><a name="Wildcard Searches"></a>Wildcard Searches
<p>Lucene supports single and multiple character wildcard searches within single terms (not within phrase queries).</p>
<p>To perform a single character wildcard search use the "?" symbol.</p>
<p>To perform a multiple character wildcard search use the "*" symbol.</p>
<p>The single character wildcard search looks for terms that match that with the single character replaced. For example, to search for "text" or "test" you can use the search:</p>
te?t
<p>Multiple character wildcard searches looks for 0 or more characters. For example, to search for test, tests or tester, you can use the search:</p>
test*
<p>You can also use the wildcard searches in the middle of a term.</p>
te*t
<p>Note: You cannot use a * or ? symbol as the first character of a search.</p>
<a name="N1009B"></a><a name="Fuzzy Searches"></a>Fuzzy Searches
<p>Lucene supports fuzzy searches based on the Levenshtein Distance, or Edit Distance algorithm. To do a fuzzy search use the tilde, "~", symbol at the end of a Single word Term. For example to search for a term similar in spelling to "roam" use the fuzzy search:</p>
roam~
<p>This search will find terms like foam and roams.</p>
<p>Starting with Lucene 1.9 an additional (optional) parameter can specify the required similarity. The value is between 0 and 1, with a value closer to 1 only terms with a higher similarity will be matched. For example:</p>
roam~0.8
<p>The default that is used if the parameter is not given is 0.5.</p>
<a name="N100B4"></a><a name="Proximity Searches"></a>Proximity Searches
<p>Lucene supports finding words are a within a specific distance away. To do a proximity search use the tilde, "~", symbol at the end of a Phrase. For example to search for a "apache" and "jakarta" within 10 words of each other in a document use the search:</p>
"jakarta apache"~10<a name="N100C1"></a><a name="Range Searches"></a>Range Searches
<p>Range Queries allow one to match documents whose field(s) values are between the lower and upper bound specified by the Range Query. Range Queries can be inclusive or exclusive of the upper and lower bounds. Sorting is done lexicographically.</p>
mod_date:[20020101 TO 20030101]
<p>This will find documents whose mod_date fields have values between 20020101 and 20030101, inclusive. Note that Range Queries are not reserved for date fields. You could also use range queries with non-date fields:</p>
title:{Aida TO Carmen}
<p>This will find all documents whose titles are between Aida and Carmen, but not including Aida and Carmen.</p>
<p>Inclusive range queries are denoted by square brackets. Exclusive range queries are denoted by curly brackets.</p>
<a name="N100DA"></a><a name="Boosting a Term"></a>Boosting a Term
<p>Lucene provides the relevance level of matching documents based on the terms found. To boost a term use the caret, "^", symbol with a boost factor (a number) at the end of the term you are searching. The higher the boost factor, the more relevant the term will be.</p>
<p>Boosting allows you to control the relevance of a document by boosting its term. For example, if you are searching for</p>
jakarta apache
<p>and you want the term "jakarta" to be more relevant boost it using the ^ symbol along with the boost factor next to the term. You would type:</p>
jakarta^4 apache
<p>This will make documents with the term jakarta appear more relevant. You can also boost Phrase Terms as in the example:</p>
"jakarta apache"^4 "Apache Lucene"
<p>By default, the boost factor is 1. Although the boost factor must be positive, it can be less than 1 (e.g. 0.2)</p>
<p><a name="N100FA"></a><a name="Boolean operators"></a></p>
Boolean Operators
<p>Boolean operators allow terms to be combined through logic operators. Lucene supports AND, "+", OR, NOT and "-" as Boolean operators(Note: Boolean operators must be ALL CAPS).</p>
<a name="N10103"></a><a name="OR"></a>
<p>The OR operator is the default conjunction operator. This means that if there is no Boolean operator between two terms, the OR operator is used. The OR operator links two terms and finds a matching document if either of the terms exist in a document. This is equivalent to a union using sets. The symbol || can be used in place of the word OR.</p>
<p>To search for documents that contain either "jakarta apache" or just "jakarta" use the query:</p>
"jakarta apache" jakarta
<p>or</p>
"jakarta apache" OR jakarta<a name="N10116"></a><a name="AND"></a>AND
<p>The AND operator matches documents where both terms exist anywhere in the text of a single document. This is equivalent to an intersection using sets. The symbol && can be used in place of the word AND.</p>
<p>To search for documents that contain "jakarta apache" and "Apache Lucene" use the query:</p>
"jakarta apache" AND "Apache Lucene"<a name="N10126"></a><a name="+"></a>+
<p>The "+" or required operator requires that the term after the "+" symbol exist somewhere in a the field of a single document.</p>
<p>To search for documents that must contain "jakarta" and may contain "lucene" use the query:</p>
+jakarta lucene<a name="N10136"></a><a name="NOT"></a>NOT
<p>The NOT operator excludes documents that contain the term after NOT. This is equivalent to a difference using sets. The symbol ! can be used in place of the word NOT.</p>
<p>To search for documents that contain "jakarta apache" but not "Apache Lucene" use the query:</p>
"jakarta apache" NOT "Apache Lucene"
<p>Note: The NOT operator cannot be used with just one term. For example, the following search will return no results:</p>
NOT "jakarta apache"<a name="N1014C"></a><a name="-"></a>-
<p>The "-" or prohibit operator excludes documents that contain the term after the "-" symbol.</p>
<p>To search for documents that contain "jakarta apache" but not "Apache Lucene" use the query:</p>
"jakarta apache" -"Apache Lucene"
<p><a name="N1015D"></a><a name="Grouping"></a></p>
Grouping
<p>Lucene supports using parentheses to group clauses to form sub queries. This can be very useful if you want to control the boolean logic for a query.</p>
<p>To search for either "jakarta" or "apache" and "website" use the query:</p>
(jakarta OR apache) AND website
<p>This eliminates any confusion and makes sure you that website must exist and either term jakarta or apache may exist.</p>
<p><a name="N10170"></a><a name="Field Grouping"></a></p>
Field Grouping
<p>Lucene supports using parentheses to group multiple clauses to a single field.</p>
<p>To search for a title that contains both the word "return" and the phrase "pink panther" use the query:</p>
title:(+return +"pink panther")
<p><a name="N10180"></a><a name="Escaping Special Characters"></a></p>
Escaping Special Characters
<p>Lucene supports escaping special characters that are part of the query syntax. The current list special characters are</p>
<p>+ - && || ! ( ) { } [ ] ^ " ~ * ? : \</p>
<p>To escape these character use the \ before the character. For example to search for (1+1):2 use the query:</p>
\(1\+1\)\:2</div>转:lucene使用与优化savagertnullhttp://liyanblog.cn/articles/2012/10/19/1350640450233.html2013-03-05T16:21:16+08:00<div class="content-head clearfix">
<h2 class="title content-title"> <span style="font-size: 12px;">1 lucene简介</span></h2>
</div>
<div id="content" class="content mod-cs-content text-content clearfix">1.1 什么是lucene<br />Lucene是一个全文搜索框架,而不是应用产品。因此它并不像www.baidu.com 或者google Desktop那么拿来就能用,它只是提供了一种工具让你能实现这些产品。<br /><br />1.2 lucene能做什么<br />要回答这个问题,先要了解lucene的本质。实际上lucene的功能很单一,说到底,就是你给它若干个字符串,然后它为你提供一个全文搜索服务,告诉你你要搜索的关键词出现在哪里。知道了这个本质,你就可以发挥想象做任何符合这个条件的事情了。你可以把站内新闻都索引了,做个资料库;你可以把一个数据库表的若干个字段索引起来,那就不用再担心因为“%like%”而锁表了;你也可以写个自己的搜索引擎……<br /><br />1.3 你该不该选择lucene<br />下面给出一些测试数据,如果你觉得可以接受,那么可以选择。<br />测试一:250万记录,300M左右文本,生成索引380M左右,800线程下平均处理时间300ms。<br />测试二:37000记录,索引数据库中的两个varchar字段,索引文件2.6M,800线程下平均处理时间1.5ms。<br /><br />2 lucene的工作方式<br />lucene提供的服务实际包含两部分:一入一出。所谓入是写入,即将你提供的源(本质是字符串)写入索引或者将其从索引中删除;所谓出是读出,即向用户提供全文搜索服务,让用户可以通过关键词定位源。<br /><br />2.1写入流程<br />源字符串首先经过analyzer处理,包括:分词,分成一个个单词;去除stopword(可选)。<br />将源中需要的信息加入Document的各个Field中,并把需要索引的Field索引起来,把需要存储的Field存储起来。<br />将索引写入存储器,存储器可以是内存或磁盘。<br /><br />2.2读出流程<br />用户提供搜索关键词,经过analyzer处理。<br />对处理后的关键词搜索索引找出对应的Document。<br />用户根据需要从找到的Document中提取需要的Field。<br /><br />3 一些需要知道的概念<br />lucene用到一些概念,了解它们的含义,有利于下面的讲解。<br /><br />3.1 analyzer<br />Analyzer是分析器,它的作用是把一个字符串按某种规则划分成一个个词语,并去除其中的无效词语,这里说的无效词语是指英文中的“of”、 “the”,中文中的“的”、“地”等词语,这些词语在文章中大量出现,但是本身不包含什么关键信息,去掉有利于缩小索引文件、提高效率、提高命中率。<br />分词的规则千变万化,但目的只有一个:按语义划分。这点在英文中比较容易实现,因为英文本身就是以单词为单位的,已经用空格分开;而中文则必须以某种方法将连成一片的句子划分成一个个词语。具体划分方法下面再详细介绍,这里只需了解分析器的概念即可。<br /><br />3.2 document<br />用户提供的源是一条条记录,它们可以是文本文件、字符串或者数据库表的一条记录等等。一条记录经过索引之后,就是以一个Document的形式存储在索引文件中的。用户进行搜索,也是以Document列表的形式返回。<br /><br />3.3 field<br />一个Document可以包含多个信息域,例如一篇文章可以包含“标题”、“正文”、“最后修改时间”等信息域,这些信息域就是通过Field在Document中存储的。<br />Field有两个属性可选:存储和索引。通过存储属性你可以控制是否对这个Field进行存储;通过索引属性你可以控制是否对该Field进行索引。这看起来似乎有些废话,事实上对这两个属性的正确组合很重要,下面举例说明:<br />还是以刚才的文章为例子,我们需要对标题和正文进行全文搜索,所以我们要把索引属性设置为真,同时我们希望能直接从搜索结果中提取文章标题,所以我们把标题域的存储属性设置为真,但是由于正文域太大了,我们为了缩小索引文件大小,将正文域的存储属性设置为假,当需要时再直接读取文件;我们只是希望能从搜索解果中提取最后修改时间,不需要对它进行搜索,所以我们把最后修改时间域的存储属性设置为真,索引属性设置为假。上面的三个域涵盖了两个属性的三种组合,还有一种全为假的没有用到,事实上Field不允许你那么设置,因为既不存储又不索引的域是没有意义的。<br /><br />3.4 term<br />term是搜索的最小单位,它表示文档的一个词语,term由两部分组成:它表示的词语和这个词语所出现的field。<br /><br />3.5 tocken<br />tocken是term的一次出现,它包含trem文本和相应的起止偏移,以及一个类型字符串。一句话中可以出现多次相同的词语,它们都用同一个term表示,但是用不同的tocken,每个tocken标记该词语出现的地方。<br /><br />3.6 segment<br />添加索引时并不是每个document都马上添加到同一个索引文件,它们首先被写入到不同的小文件,然后再合并成一个大索引文件,这里每个小文件都是一个segment。<br /> 4 lucene的结构<br />lucene包括core和sandbox两部分,其中core是lucene稳定的核心部分,sandbox包含了一些附加功能,例如highlighter、各种分析器。<br />Lucene core有七个包:analysis,document,index,queryParser,search,store,util。<br />4.1 analysis<br />Analysis包含一些内建的分析器,例如按空白字符分词的WhitespaceAnalyzer,添加了stopwrod过滤的StopAnalyzer,最常用的StandardAnalyzer。<br />4.2 document<br />Document包含文档的数据结构,例如Document类定义了存储文档的数据结构,Field类定义了Document的一个域。<br />4.3 index<br />Index包含了索引的读写类,例如对索引文件的segment进行写、合并、优化的IndexWriter类和对索引进行读取和删除操作的 IndexReader类,这里要注意的是不要被IndexReader这个名字误导,以为它是索引文件的读取类,实际上删除索引也是由它完成, IndexWriter只关心如何将索引写入一个个segment,并将它们合并优化;IndexReader则关注索引文件中各个文档的组织形式。<br />4.4 queryParser<br />QueryParser包含了解析查询语句的类,lucene的查询语句和sql语句有点类似,有各种保留字,按照一定的语法可以组成各种查询。 Lucene有很多种Query类,它们都继承自Query,执行各种特殊的查询,QueryParser的作用就是解析查询语句,按顺序调用各种 Query类查找出结果。<br />4.5 search<br />Search包含了从索引中搜索结果的各种类,例如刚才说的各种Query类,包括TermQuery、BooleanQuery等就在这个包里。<br />4.6 store<br />Store包含了索引的存储类,例如Directory定义了索引文件的存储结构,FSDirectory为存储在文件中的索引,RAMDirectory为存储在内存中的索引,MmapDirectory为使用内存映射的索引。<br />4.7 util<br />Util包含一些公共工具类,例如时间和字符串之间的转换工具。<br />5 如何建索引<br />5.1 最简单的能完成索引的代码片断<br /><br />IndexWriter writer = new IndexWriter(“/data/index/”, new StandardAnalyzer(), true);<br />Document doc = new Document();<br />doc.add(new Field("title", "lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));<br />doc.add(new Field("content", "lucene works well", Field.Store.YES, Field.Index.TOKENIZED));<br />writer.addDocument(doc);<br />writer.optimize();<br />writer.close();<br /><br />下面我们分析一下这段代码。<br />首先我们创建了一个writer,并指定存放索引的目录为“/data/index”,使用的分析器为StandardAnalyzer,第三个参数说明如果已经有索引文件在索引目录下,我们将覆盖它们。<br />然后我们新建一个document。<br />我们向document添加一个field,名字是“title”,内容是“lucene introduction”,对它进行存储并索引。<br />再添加一个名字是“content”的field,内容是“lucene works well”,也是存储并索引。<br />然后我们将这个文档添加到索引中,如果有多个文档,可以重复上面的操作,创建document并添加。<br />添加完所有document,我们对索引进行优化,优化主要是将多个segment合并到一个,有利于提高索引速度。<br />随后将writer关闭,这点很重要。<br /><br />对,创建索引就这么简单!<br />当然你可能修改上面的代码获得更具个性化的服务。<br /><br />5.2 将索引直接写在内存<br />你需要首先创建一个RAMDirectory,并将其传给writer,代码如下:<br /><br />Directory dir = new RAMDirectory();<br />IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);<br />Document doc = new Document();<br />doc.add(new Field("title", "lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));<br />doc.add(new Field("content", "lucene works well", Field.Store.YES, Field.Index.TOKENIZED));<br />writer.addDocument(doc);<br />writer.optimize();<br />writer.close();<br /><br />5.3 索引文本文件<br />如果你想把纯文本文件索引起来,而不想自己将它们读入字符串创建field,你可以用下面的代码创建field:<br /><br />Field field = new Field("content", new FileReader(file));<br /><br />这里的file就是该文本文件。该构造函数实际上是读去文件内容,并对其进行索引,但不存储。<br /><br />6 如何维护索引<br />索引的维护操作都是由IndexReader类提供。<br /><br />6.1 如何删除索引<br />lucene提供了两种从索引中删除document的方法,一种是<br /><br />void deleteDocument(int docNum)<br /><br />这种方法是根据document在索引中的编号来删除,每个document加进索引后都会有个唯一编号,所以根据编号删除是一种精确删除,但是这个编号是索引的内部结构,一般我们不会知道某个文件的编号到底是几,所以用处不大。另一种是<br /><br />void deleteDocuments(Term term)<br /><br />这种方法实际上是首先根据参数term执行一个搜索操作,然后把搜索到的结果批量删除了。我们可以通过这个方法提供一个严格的查询条件,达到删除指定document的目的。<br />下面给出一个例子:<br /><br />Directory dir = FSDirectory.getDirectory(PATH, false);<br />IndexReader reader = IndexReader.open(dir);<br />Term term = new Term(field, key);<br />reader.deleteDocuments(term);<br />reader.close();<br /><br />6.2 如何更新索引<br />lucene并没有提供专门的索引更新方法,我们需要先将相应的document删除,然后再将新的document加入索引。例如:<br /><br />Directory dir = FSDirectory.getDirectory(PATH, false);<br />IndexReader reader = IndexReader.open(dir);<br />Term term = new Term(“title”, “lucene introduction”);<br />reader.deleteDocuments(term);<br />reader.close();<br /><br />IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);<br />Document doc = new Document();<br />doc.add(new Field("title", "lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));<br />doc.add(new Field("content", "lucene is funny", Field.Store.YES, Field.Index.TOKENIZED));<br />writer.addDocument(doc);<br />writer.optimize();<br />writer.close();<br />7 如何搜索<br />lucene的搜索相当强大,它提供了很多辅助查询类,每个类都继承自Query类,各自完成一种特殊的查询,你可以像搭积木一样将它们任意组合使用,完成一些复杂操作;另外lucene还提供了Sort类对结果进行排序,提供了Filter类对查询条件进行限制。你或许会不自觉地拿它跟SQL语句进行比较:“lucene能执行and、or、order by、where、like ‘%xx%’操作吗?”回答是:“当然没问题!”<br /><br />7.1 各种各样的Query<br />下面我们看看lucene到底允许我们进行哪些查询操作:<br /><br />7.1.1 TermQuery<br />首先介绍最基本的查询,如果你想执行一个这样的查询:“在content域中包含‘lucene’的document”,那么你可以用TermQuery:<br /><br />Term t = new Term("content", " lucene";<br />Query query = new TermQuery(t);<br /><br />7.1.2 BooleanQuery<br />如果你想这么查询:“在content域中包含java或perl的document”,那么你可以建立两个TermQuery并把它们用BooleanQuery连接起来:<br /><br />TermQuery termQuery1 = new TermQuery(new Term("content", "java");<br />TermQuery termQuery 2 = new TermQuery(new Term("content", "perl");<br />BooleanQuery booleanQuery = new BooleanQuery();<br />booleanQuery.add(termQuery 1, BooleanClause.Occur.SHOULD);<br />booleanQuery.add(termQuery 2, BooleanClause.Occur.SHOULD);<br /><br />7.1.3 WildcardQuery<br />如果你想对某单词进行通配符查询,你可以用WildcardQuery,通配符包括’?’匹配一个任意字符和’*’匹配零个或多个任意字符,例如你搜索’use*’,你可能找到’useful’或者’useless’:<br /><br />Query query = new WildcardQuery(new Term("content", "use*");<br /><br />7.1.4 PhraseQuery<br />你可能对中日关系比较感兴趣,想查找‘中’和‘日’挨得比较近(5个字的距离内)的文章,超过这个距离的不予考虑,你可以:<br /><br />PhraseQuery query = new PhraseQuery();<br />query.setSlop(5);<br />query.add(new Term("content ", “中”));<br />query.add(new Term(“content”, “日”));<br /><br />那么它可能搜到“中日合作……”、“中方和日方……”,但是搜不到“中国某高层领导说日本欠扁”。<br /><br />7.1.5 PrefixQuery<br />如果你想搜以‘中’开头的词语,你可以用PrefixQuery:<br /><br />PrefixQuery query = new PrefixQuery(new Term("content ", "中");<br /><br />7.1.6 FuzzyQuery<br />FuzzyQuery用来搜索相似的term,使用Levenshtein算法。假设你想搜索跟‘wuzza’相似的词语,你可以:<br /><br />Query query = new FuzzyQuery(new Term("content", "wuzza");<br /><br />你可能得到‘fuzzy’和‘wuzzy’。<br /><br />7.1.7 RangeQuery<br />另一个常用的Query是RangeQuery,你也许想搜索时间域从20060101到20060130之间的document,你可以用RangeQuery:<br /><br />RangeQuery query = new RangeQuery(new Term(“time”, “20060101”), new Term(“time”, “20060130”), true);<br /><br />最后的true表示用闭合区间。<br /><br />7.2 QueryParser<br />看了这么多Query,你可能会问:“不会让我自己组合各种Query吧,太麻烦了!”当然不会,lucene提供了一种类似于SQL语句的查询语句,我们姑且叫它lucene语句,通过它,你可以把各种查询一句话搞定,lucene会自动把它们查分成小块交给相应Query执行。下面我们对应每种Query演示一下:<br />TermQuery可以用“field:key”方式,例如“content:lucene”。<br />BooleanQuery中‘与’用‘+’,‘或’用‘ ’,例如“content:java contenterl”。<br />WildcardQuery仍然用‘?’和‘*’,例如“content:use*”。<br />PhraseQuery用‘~’,例如“content:"中日"~5”。<br />PrefixQuery用‘*’,例如“中*”。<br />FuzzyQuery用‘~’,例如“content: wuzza ~”。<br />RangeQuery用‘[]’或‘{}’,前者表示闭区间,后者表示开区间,例如“time:[20060101 TO 20060130]”,注意TO区分大小写。<br />你可以任意组合query string,完成复杂操作,例如“标题或正文包括lucene,并且时间在20060101到20060130之间的文章”可以表示为:“+ (title:lucene content:lucene) +time:[20060101 TO 20060130]”。代码如下:<br /><br />Directory dir = FSDirectory.getDirectory(PATH, false);<br />IndexSearcher is = new IndexSearcher(dir);<br />QueryParser parser = new QueryParser("content", new StandardAnalyzer());<br />Query query = parser.parse("+(title:lucene content:lucene) +time:[20060101 TO 20060130]";<br />Hits hits = is.search(query);<br />for (int i = 0; i < hits.length(); i++)<br />{<br />Document doc = hits.doc(i);<br />System.out.println(doc.get("title");<br />}<br />is.close();<br /><br />首先我们创建一个在指定文件目录上的IndexSearcher。<br />然后创建一个使用StandardAnalyzer作为分析器的QueryParser,它默认搜索的域是content。<br />接着我们用QueryParser来parse查询字串,生成一个Query。<br />然后利用这个Query去查找结果,结果以Hits的形式返回。<br />这个Hits对象包含一个列表,我们挨个把它的内容显示出来。<br /><br />7.3 Filter<br />filter的作用就是限制只查询索引的某个子集,它的作用有点像SQL语句里的where,但又有区别,它不是正规查询的一部分,只是对数据源进行预处理,然后交给查询语句。注意它执行的是预处理,而不是对查询结果进行过滤,所以使用filter的代价是很大的,它可能会使一次查询耗时提高一百倍。<br />最常用的filter是RangeFilter和QueryFilter。RangeFilter是设定只搜索指定范围内的索引;QueryFilter是在上次查询的结果中搜索。<br />Filter的使用非常简单,你只需创建一个filter实例,然后把它传给searcher。继续上面的例子,查询“时间在20060101到20060130之间的文章”除了将限制写在query string中,你还可以写在RangeFilter中:<br /><br />Directory dir = FSDirectory.getDirectory(PATH, false);<br />IndexSearcher is = new IndexSearcher(dir);<br />QueryParser parser = new QueryParser("content", new StandardAnalyzer());<br />Query query = parser.parse("title:lucene content:lucene";<br />RangeFilter filter = new RangeFilter("time", "20060101", "20060230", true, true);<br />Hits hits = is.search(query, filter);<br />for (int i i < hits.length(); i++)<br />{<br />Document doc = hits.doc(i);<br />System.out.println(doc.get("title");<br />}<br />is.close();<br /><br />7.4 Sort<br />有时你想要一个排好序的结果集,就像SQL语句的“order by”,lucene能做到:通过Sort。<br />Sort sort Sort(“time”); //相当于SQL的“order by time”<br />Sort sort = new Sort(“time”, true); // 相当于SQL的“order by time desc”<br />下面是一个完整的例子:<br /><br />Directory dir = FSDirectory.getDirectory(PATH, false);<br />IndexSearcher is = new IndexSearcher(dir);<br />QueryParser parser = new QueryParser("content", new StandardAnalyzer());<br />Query query = parser.parse("title:lucene content:lucene";<br />RangeFilter filter = new RangeFilter("time", "20060101", "20060230", true, true);<br />Sort sort = new Sort(“time”);<br />Hits hits = is.search(query, filter, sort);<br />for (int i = 0; i < hits.length(); i++)<br />{<br />Document doc = hits.doc(i);<br />System.out.println(doc.get("title");<br />}<br />is.close();<br /><br />8 分析器<br />在前面的概念介绍中我们已经知道了分析器的作用,就是把句子按照语义切分成一个个词语。英文切分已经有了很成熟的分析器: StandardAnalyzer,很多情况下StandardAnalyzer是个不错的选择。甚至你会发现StandardAnalyzer也能对中文进行分词。<br />但是我们的焦点是中文分词,StandardAnalyzer能支持中文分词吗?实践证明是可以的,但是效果并不好,搜索“如果”会把“牛奶不如果汁好喝”也搜索出来,而且索引文件很大。那么我们手头上还有什么分析器可以使用呢?core里面没有,我们可以在sandbox里面找到两个: ChineseAnalyzer和CJKAnalyzer。但是它们同样都有分词不准的问题。相比之下用StandardAnalyzer和 ChineseAnalyzer建立索引时间差不多,索引文件大小也差不多,CJKAnalyzer表现会差些,索引文件大且耗时比较长。<br />要解决问题,首先分析一下这三个分析器的分词方式。StandardAnalyzer和ChineseAnalyzer都是把句子按单个字切分,也就是说 “牛奶不如果汁好喝”会被它们切分成“牛 奶 不 如 果 汁 好 喝”;而CJKAnalyzer则会切分成“牛奶 奶不 不如 如果 果汁 汁好好喝”。这也就解释了为什么搜索“果汁”都能匹配这个句子。<br />以上分词的缺点至少有两个:匹配不准确和索引文件大。我们的目标是将上面的句子分解成“牛奶 不如 果汁好喝”。这里的关键就是语义识别,我们如何识别“牛奶”是一个词而“奶不”不是词语?我们很自然会想到基于词库的分词法,也就是我们先得到一个词库,里面列举了大部分词语,我们把句子按某种方式切分,当得到的词语与词库中的项匹配时,我们就认为这种切分是正确的。这样切词的过程就转变成匹配的过程,而匹配的方式最简单的有正向最大匹配和逆向最大匹配两种,说白了就是一个从句子开头向后进行匹配,一个从句子末尾向前进行匹配。基于词库的分词词库非常重要,词库的容量直接影响搜索结果,在相同词库的前提下,据说逆向最大匹配优于正向最大匹配。<br />当然还有别的分词方法,这本身就是一个学科,我这里也没有深入研究。回到具体应用,我们的目标是能找到成熟的、现成的分词工具,避免重新发明车轮。经过网上搜索,用的比较多的是中科院的ICTCLAS和一个不开放源码但是免费的JE-Analysis。ICTCLAS有个问题是它是一个动态链接库, java调用需要本地方法调用,不方便也有安全隐患,而且口碑也确实不大好。JE-Analysis效果还不错,当然也会有分词不准的地方,相比比较方便放心。= new = 0; 9 性能优化<br />一直到这里,我们还是在讨论怎么样使lucene跑起来,完成指定任务。利用前面说的也确实能完成大部分功能。但是测试表明lucene的性能并不是很好,在大数据量大并发的条件下甚至会有半分钟返回的情况。另外大数据量的数据初始化建立索引也是一个十分耗时的过程。那么如何提高lucene的性能呢?下面从优化创建索引性能和优化搜索性能两方面介绍。<br /><br />9.1 优化创建索引性能<br />这方面的优化途径比较有限,IndexWriter提供了一些接口可以控制建立索引的操作,另外我们可以先将索引写入RAMDirectory,再批量写入FSDirectory,不管怎样,目的都是尽量少的文件IO,因为创建索引的最大瓶颈在于磁盘IO。另外选择一个较好的分析器也能提高一些性能。<br /><br />9.1.1 通过设置IndexWriter的参数优化索引建立<br />setMaxBufferedDocs(int maxBufferedDocs)<br />控制写入一个新的segment前内存中保存的document的数目,设置较大的数目可以加快建索引速度,默认为10。<br />setMaxMergeDocs(int maxMergeDocs)<br />控制一个segment中可以保存的最大document数目,值较小有利于追加索引的速度,默认Integer.MAX_VALUE,无需修改。<br />setMergeFactor(int mergeFactor)<br />控制多个segment合并的频率,值较大时建立索引速度较快,默认是10,可以在建立索引时设置为100。<br /><br />9.1.2 通过RAMDirectory缓写提高性能<br />我们可以先把索引写入RAMDirectory,达到一定数量时再批量写进FSDirectory,减少磁盘IO次数。<br /><br />FSDirectory fsDir = FSDirectory.getDirectory("/data/index", true);<br />RAMDirectory ramDir = new RAMDirectory();<br />IndexWriter fsWriter = new IndexWriter(fsDir, new StandardAnalyzer(), true);<br />IndexWriter ramWriter = new IndexWriter(ramDir, new StandardAnalyzer(), true);<br />while (there are documents to index)<br />{<br />... create Document ...<br />ramWriter.addDocument(doc);<br />if (condition for flushing memory to disk has been met)<br />{<br />fsWriter.addIndexes(new Directory[] { ramDir });<br />ramWriter.close();<br />ramWriter = new IndexWriter(ramDir, new StandardAnalyzer(), true);<br />}<br />}<br /><br />9.1.3 选择较好的分析器<br />这个优化主要是对磁盘空间的优化,可以将索引文件减小将近一半,相同测试数据下由600M减少到380M。但是对时间并没有什么帮助,甚至会需要更长时间,因为较好的分析器需要匹配词库,会消耗更多cpu,测试数据用StandardAnalyzer耗时133分钟;用MMAnalyzer耗时150分钟。<br /><br />9.2 优化搜索性能<br />虽然建立索引的操作非常耗时,但是那毕竟只在最初创建时才需要,平时只是少量的维护操作,更何况这些可以放到一个后台进程处理,并不影响用户搜索。我们创建索引的目的就是给用户搜索,所以搜索的性能才是我们最关心的。下面就来探讨一下如何提高搜索性能。<br /><br />9.2.1 将索引放入内存<br />这是一个最直观的想法,因为内存比磁盘快很多。Lucene提供了RAMDirectory可以在内存中容纳索引:<br /><br />Directory fsDir = FSDirectory.getDirectory(“/data/index/”, false);<br />Directory ramDir = new RAMDirectory(fsDir);<br />Searcher searcher = new IndexSearcher(ramDir);<br /><br />但是实践证明RAMDirectory和FSDirectory速度差不多,当数据量很小时两者都非常快,当数据量较大时(索引文件400M)RAMDirectory甚至比FSDirectory还要慢一点,这确实让人出乎意料。<br />而且lucene的搜索非常耗内存,即使将400M的索引文件载入内存,在运行一段时间后都会out of memory,所以个人认为载入内存的作用并不大。<br /><br />9.2.2 优化时间范围限制<br />既然载入内存并不能提高效率,一定有其它瓶颈,经过测试发现最大的瓶颈居然是时间范围限制,那么我们可以怎样使时间范围限制的代价最小呢?<br />当需要搜索指定时间范围内的结果时,可以:<br />1、用RangeQuery,设置范围,但是RangeQuery的实现实际上是将时间范围内的时间点展开,组成一个个BooleanClause加入到 BooleanQuery中查询,因此时间范围不可能设置太大,经测试,范围超过一个月就会抛BooleanQuery.TooManyClauses,可以通过设置 BooleanQuery.setMaxClauseCount(int maxClauseCount)扩大,但是扩大也是有限的,并且随着maxClauseCount扩大,占用内存也扩大<br />2、用RangeFilter代替RangeQuery,经测试速度不会比RangeQuery慢,但是仍然有性能瓶颈,查询的90%以上时间耗费在 RangeFilter,研究其源码发现RangeFilter实际上是首先遍历所有索引,生成一个BitSet,标记每个document,在时间范围内的标记为true,不在的标记为false,然后将结果传递给Searcher查找,这是十分耗时的。<br />3、进一步提高性能,这个又有两个思路:<br />a、缓存Filter结果。既然RangeFilter的执行是在搜索之前,那么它的输入都是一定的,就是IndexReader,而 IndexReader是由Directory决定的,所以可以认为RangeFilter的结果是由范围的上下限决定的,也就是由具体的 RangeFilter对象决定,所以我们只要以RangeFilter对象为键,将filter结果BitSet缓存起来即可。lucene API已经提供了一个CachingWrapperFilter类封装了Filter及其结果,所以具体实施起来我们可以cache CachingWrapperFilter对象,需要注意的是,不要被CachingWrapperFilter的名字及其说明误导, CachingWrapperFilter看起来是有缓存功能,但的缓存是针对同一个filter的,也就是在你用同一个filter过滤不同 IndexReader时,它可以帮你缓存不同IndexReader的结果,而我们的需求恰恰相反,我们是用不同filter过滤同一个 IndexReader,所以只能把它作为一个封装类。<br />b、降低时间精度。研究Filter的工作原理可以看出,它每次工作都是遍历整个索引的,所以时间粒度越大,对比越快,搜索时间越短,在不影响功能的情况下,时间精度越低越好,有时甚至牺牲一点精度也值得,当然最好的情况是根本不作时间限制。<br />下面针对上面的两个思路演示一下优化结果(都采用800线程随机关键词随即时间范围):<br />第一组,时间精度为秒:<br />方式 直接用RangeFilter 使用cache 不用filter<br />平均每个线程耗时 10s 1s 300ms<br /><br />第二组,时间精度为天<br />方式 直接用RangeFilter 使用cache 不用filter<br />平均每个线程耗时 900ms 360ms 300ms<br /><br />由以上数据可以得出结论:<br />1、 尽量降低时间精度,将精度由秒换成天带来的性能提高甚至比使用cache还好,最好不使用filter。<br />2、 在不能降低时间精度的情况下,使用cache能带了10倍左右的性能提高。<br /><br />9.2.3 使用更好的分析器<br />这个跟创建索引优化道理差不多,索引文件小了搜索自然会加快。当然这个提高也是有限的。较好的分析器相对于最差的分析器对性能的提升在20%以下。<br /><br />10 一些经验<br /><br />10.1关键词区分大小写<br />or AND TO等关键词是区分大小写的,lucene只认大写的,小写的当做普通单词。<br /><br />10.2 读写互斥性<br />同一时刻只能有一个对索引的写操作,在写的同时可以进行搜索<br /><br />10.3 文件锁<br />在写索引的过程中强行退出将在tmp目录留下一个lock文件,使以后的写操作无法进行,可以将其手工删除<br /><br />10.4 时间格式<br />lucene只支持一种时间格式yyMMddHHmmss,所以你传一个yy-MM-dd HH:mm:ss的时间给lucene它是不会当作时间来处理的<br /><br />10.5 设置boost<br />有些时候在搜索时某个字段的权重需要大一些,例如你可能认为标题中出现关键词的文章比正文中出现关键词的文章更有价值,你可以把标题的boost设置的更大,那么搜索结果会优先显示标题中出现关键词的文章(没有使用排序的前题下)。使用方法:<br />Field. setBoost(float boost);默认值是1.0,也就是说要增加权重的需要设置得比1大。</div>