忙了几天终于实现一个简单的全文搜索在此回顾总结一下
本文介绍一下lucene.net 是什么?lucene.net 能作什么?以及怎么做的问题?最后给出 lucene.net 实现全文搜索的一个示例
1、lucene.net 是什么?
lucene.net 起初是一个开源项目然后转向商业化,也在lucene.net 2.0已经发布,不过是要money d ,lucene.net的命运有点类似于freetextbox ,它在 1.6.5 版本之后发布的 2.0 开始了商业路线,2.0 提供了 dll 方式的免费版本,源代码版本则必须购买商业的许可 licence;不过它留下了 1.6.5 版本的源代码,还是可以看到大部分的内部细节,但 2.0 版本中添加的对 mozilla 浏览器的支持部分只有通过它生成的 html 和 javascript 脚本去窥测。
lucene 是 java 世界中常用的索引 api,使用它提供的方法可以为文本资料创建索引,并提供检索。(参考:nlucene 和 lucene .net)nlucene 是第一个的 .net 移植,也是一个有 .net 风格的版本,使用 .net 的命名规范和类库设计。不过 nlucene 项目的 leader 由于精力原因,只发布了 1.2beta 版本。lucene.net 项目出现后,nlucene 就没有新的计划了。
lucene.net 当初号称要做 up-to-date 的 .net lucene 移植,它只在命名方面采纳了 .net 的建议,主要目标倾向于和 java lucene 兼容:一个是索引格式兼容,达到可以共同工作的目的;一个是命名接近(只相差很少,比如大小写等),目的是可以方便开发者使用 java lucene 相关的代码和资料。
不知什么时候 lucene.net 项目已经放弃了开源计划,转向了商业。它居然把 sourceforge 上已经开源的文件也删除了。与此同时,sourceforge 上又出现了 dotlucene 项目,出于对 lucene.net 的抗议,dotlucene 几乎将 lucene.net 的代码原封不动放在上面作为他们的起点。(https://sourceforge.net/forum/forum.php?thread_id=1153933&forum_id=408004)。
说白了lucene.net就是是一个信息检索的函数库(library),利用它你可以为你的应用加上索引和搜索的功能.
lucene的使用者不必深入了解有关全文检索的知识,仅仅学会使用库中的几个类,知道怎么调用library中的函数,就可以为你的应用实现全文检索的功能.
不过千万别期望lucene是一个象google和百度那样的搜索引擎,它仅仅是一个工具,一个library.你也可以把它理解为一个将索引,搜索功能封装的很好的一套简单易用的api.利用这套api你可以做很多有关搜索的事情,而且很方便,它可以满足你对一个应用做简单的全文搜索,作为应用的开发者(非专业搜索引擎开发者)来说,它的功能足以满足你。
2、lucene.net 可以作什么?
lucene可以对任何的数据做索引和搜索. lucene不管数据源是什么格式,只要它能被转化为文字的形式,就可以被lucene所分析利用.也就是说不管是ms word, html ,pdf还是其他什么形式的文件只要你可以从中抽取出文字形式的内容就可以被lucene所用.你就可以用lucene对它们进行索引以及搜索.
3、使用 lucene.net 怎么做?
简单的归结为:创建索引,和使用索引,其中创建索引就是将要搜索的数据源的那些信息作为我们的关键信息来存储或者是分析,为搜索留下标记就象word里面创建目录(个人理解),使用索引就是在搜索的时候根据索引的信息来分析数据源将我们需要的信息提取出来。
具体请看一下示例:
创建索引的类
public class intranetindexer
{
/**/////索引写入器
private indexwriter writer;
//要写入索引的文件的根目录
private string docrootdirectory;
//要匹配的文件格式
private string[] pattern;
/**//// <summary>
/// 初始化一个索引写入器writer,directory为创建索引的目录,true代表如果不存在索引文件将重新创建索引文件,如果已经存在索引文件将覆写索引文件
/// </summary>
/// <param name="directory">传入的要创建索引的目录,注意是字符串值,如果目录不存在,他将会被自动创建</param>
public intranetindexer(string directory)
{
writer = new indexwriter(directory, new standardanalyzer(), true);
writer.setusecompoundfile(true);
}
public void adddirectory(directoryinfo directory, string [] pattern)
{
this.docrootdirectory = directory.fullname;
this.pattern = pattern;
addsubdirectory(directory);
}
private void addsubdirectory(directoryinfo directory)
{
for(int i=0;i<pattern .length ;i++)
{
foreach (fileinfo fi in directory.getfiles(pattern[i]))
{
addhtmldocument(fi.fullname);
}
}
foreach (directoryinfo di in directory.getdirectories())
{
addsubdirectory(di);
}
}
public void addhtmldocument(string path)
{
string exname=path.getextension (path);
document doc = new document();
string html;
if(exname.tolower ()==".html" ||exname .tolower ()==".htm"||exname .tolower ()==".txt")
{
using(streamreader sr=new streamreader (path,system .text .encoding .default ))
{
html = sr.readtoend();
}
}
else
{
using (streamreader sr = new streamreader(path, system.text.encoding.unicode ))
{
html = sr.readtoend();
}
}
int relativepathstartsat = this.docrootdirectory.endswith("//") ? this.docrootdirectory.length : this.docrootdirectory.length + 1;
string relativepath = path.substring(relativepathstartsat);
string title=path.getfilename(path);
//判断若是网页则去标签否则不用
if(exname.tolower ()==".html" ||exname .tolower ()==".htm")
{
doc.add(field.unstored("text", parsehtml(html)));
}
else
{
doc.add (field .unstored ("text",html));
}
doc.add(field.keyword("path", relativepath));
//doc.add(field.text("title", gettitle(html)));
doc.add (field .text ("title",title));
writer.adddocument(doc);
}
/**//// <summary>
/// 去除网页中的标签
/// </summary>
/// <param name="html">网页</param>
/// <returns>返回去除后的网页文本</returns>
private string parsehtml(string html)
{
string temp = regex.replace(html, "<[^>]*>", "");
return temp.replace(" ", " ");
}
/**//// <summary>
/// 获取网页标题
/// </summary>
/// <param name="html"></param>
/// <returns></returns>
private string gettitle(string html)
{
match m = regex.match(html, "<title>(.*)</title>");
if (m.groups.count == 2)
return m.groups[1].value;
return "文档标题未知";
}
/**//// <summary>
/// 优化索引并关闭写入器
/// </summary>
public void close()
{
writer.optimize();
writer.close();
}
}
首先建立document对象,然后为document对象添加一些属性field.你可以把document对象看成是虚拟文件,将来将从此获取信息.而field则看成是描述此虚拟文件的元数据(metadata).其中field包括四个类型: keywork
该类型的数据将不被分析,而会被索引并保存保存在索引中.
unindexed
该类型的数据不会被分析也不会被索引,但是会保存在索引.
unstored
和unindexed刚好相反,被分析被索引,但是不被保存.
text
和unstrored类似.如果值的类型为string还会被保存.如果值的类型为reader就不会被保存和unstored一样.
最后将每一个document添加到索引当中。
下面是对索引进行搜索
//创建一个索引器
indexsearcher searcher = new indexsearcher(indexdirectory);
//解析索引的text字段以便搜索
query query = queryparser.parse(this.q, "text", new standardanalyzer());
//将搜索结果放在hits中
hits hits = searcher.search(query);
//统计搜索的总记录数
this.total = hits.length();
//高亮显示
queryhighlightextractor highlighter = new queryhighlightextractor(query, new standardanalyzer(), "<font color=red>", "</font>");
第一步利用indexsearcher打开索引文件用于后面搜索,其中的参数是索引文件的路径.
第二步使用queryparser将可读性较好的查询语句(比如查询的词lucene ,以及一些高级方式lucene and .net)转化为lucene内部使用的查询对象.
第三步执行搜索.并将结果返回到hits集合.需要注意的是lucene并不是一次将所有的结果放入hits中而是采取一次放一部分的方式.出于空间考虑.
然后将搜索的结果进行处理并在页面上显示出来:
for (int i = startat; i < resultscount; i++)
{
document doc = hits.doc(i);
string path = doc.get("path");
string location =server.mappath("documents")+"//"+path;
string exname=path.getextension (path);
string plaintext ;
string str=doc.get ("title");
if(exname==".html" || exname ==".htm" || exname ==".txt")
{
using (streamreader sr = new streamreader(location, system.text.encoding.default))
{
plaintext = parsehtml(sr.readtoend());
}
}
else
{
using (streamreader sr = new streamreader(location, system.text.encoding.unicode ))
{
plaintext = sr.readtoend();
}
}
//datatable 添加行
datarow row = this.results.newrow();
row["title"] = doc.get("title");
string ip=request.url.host;//获取服务器ip
//request.url.port;
row["path"][email protected]"http://"+ip+"/webui/search/documents/"+path;
row["sample"] = highlighter.getbestfragments(plaintext, 80, 2, "");
this.results.rows.add(row);
}
searcher.close();//关闭搜索器
想对lucene.net 进行更高级,更全面,更深层次了解的请参阅一下网站:
http://www.alphatom.com/
http://blog.tianya.cn/blogger/view_blog.asp?blogname=aftaft
新闻热点
疑难解答
图片精选