几个月之前,在网上找到了一个中文词库素材(几百k),当时便想写一个分词程序了.我对汉语分词没有什么研究,也就凭自己臆想而写.若有相关方面专家,还请多给意见.
一、词库
词库大概有5万多词语(google能搜到,类似的词库都能用),我摘要如下:
地区 82
重要 81
新华社 80
技术 80
会议 80
自己 79
干部 78
职工 78
群众 77
没有 77
今天 76
同志 76
部门 75
加强 75
组织 75
第一列是词,第二列是权重.我写的这个分词算法目前并未利用权重.
二、设计思路
算法简要描述:
对一个字符串s,从前到后扫描,对扫描的每个字,从词库中寻找最长匹配.比如假设s="我是中华人民共和国公民",词库中有"中华人民共和国","中华","公民","人民","共和国"......等词.当扫描到"中"字,那么从中字开始,向后分别取1,2,3,......个字("中","中华","中华人","中华人民","中华人民共","中华人民共和","中华人民共和国",,"中华人民共和国公"),词库中的最长匹配字符串是"中华人民共和国",那么就此切分开,扫描器推进到"公"字.
数据结构:
选择什么样的数据结构对性能影响很大.我采用hashtable _roottable记录词库.键值对为(键,插入次数).对每一个词语,如果该词语有n个字,则将该词语的1,1~2,1~3,......1~n个字作为键,插入_roottable中.而同一个键如果重复插入,则后面的值递增.
三、程序
具体程序如下(程序中包含权重,插入次数等要素,目前的算法并没有利用这些.可以借此写出更有效的分词算法):
chinesewordunit.cs //struct--(词语,权重)对
1 public struct chinesewordunit
2 {
3 private string _word;
4 private int _power;
5
6 /**//// <summary>
7 /// 中文词语单元所对应的中文词。
8 /// </summary>
9 public string word
10 {
11 get
12 {
13 return _word;
14 }
15 }
16
17 /**//// <summary>
18 /// 该中文词语的权重。
19 /// </summary>
20 public int power
21 {
22 get
23 {
24 return _power;
25 }
26 }
27
28 /**//// <summary>
29 /// 结构初始化。
30 /// </summary>
31 /// <param name="word">中文词语</param>
32 /// <param name="power">该词语的权重</param>
33 public chinesewordunit(string word, int power)
34 {
35 this._word = word;
36 this._power = power;
37 }
38 }
chinesewordshashcountset.cs //词库容器
1 /**//// <summary>
2 /// 记录字符串出现在中文字典所录中文词语的前端的次数的字典类。如字符串“中”出现在“中国”的前端,则在字典中记录一个次数。
3 /// </summary>
4 public class chinesewordshashcountset
5 {
6 /**//// <summary>
7 /// 记录字符串在中文词语中出现次数的hashtable。键为特定的字符串,值为该字符串在中文词语中出现的次数。
8 /// </summary>
9 private hashtable _roottable;
10
11 /**//// <summary>
12 /// 类型初始化。
13 /// </summary>
14 public chinesewordshashcountset()
15 {
16 _roottable = new hashtable();
17 }
18
19 /**//// <summary>
20 /// 查询指定字符串出现在中文字典所录中文词语的前端的次数。
21 /// </summary>
22 /// <param name="s">指定字符串</param>
23 /// <returns>字符串出现在中文字典所录中文词语的前端的次数。若为-1,表示不出现。</returns>
24 public int getcount(string s)
25 {
26 if (!this._roottable.containskey(s.length))
27 {
28 return -1;
29 }
30 hashtable _temptable = (hashtable)this._roottable[s.length];
31 if (!_temptable.containskey(s))
32 {
33 return -1;
34 }
35 return (int)_temptable[s];
36 }
37
38 /**//// <summary>
39 /// 向次数字典中插入一个词语。解析该词语,插入次数字典。
40 /// </summary>
41 /// <param name="s">所处理的字符串。</param>
42 public void insertword(string s)
43 {
44 for(int i=0;i<s.length;i++)
45 {
46 string _s = s.substring(0,i+1);
47 this.insertsubstring(_s);
48 }
49 }
50
51 /**//// <summary>
52 /// 向次数字典中插入一个字符串的次数记录。
53 /// </summary>
54 /// <param name="s">所插入的字符串。</param>
55 private void insertsubstring(string s)
56 {
57 if (!_roottable.containskey(s.length)&&s.length>0)
58 {
59 hashtable _newhashtable = new hashtable();
60 _roottable.add(s.length,_newhashtable);
61 }
62 hashtable _temptable = (hashtable)_roottable[s.length];
63 if (!_temptable.containskey(s))
64 {
65 _temptable.add(s,1);
66 }
67 else
68 {
69 _temptable[s]=(int)_temptable[s]+1;
70 }
71 }
72 }
chineseparse.cs //分词器
1 /**//// <summary>
2 /// 中文分词器。
3 /// </summary>
4 public class chineseparse
5 {
6 private static chinesewordshashcountset _counttable;
7
8 static chineseparse()
9 {
10 _counttable = new chinesewordshashcountset();
11 initfromfile("chinesedictionary.txt");
12 }
13
14 /**//// <summary>
15 /// 从指定的文件中初始化中文词语字典和字符串次数字典。
16 /// </summary>
17 /// <param name="filename">文件名</param>
18 private static void initfromfile(string filename)
19 {
20 string path = directory.getcurrentdirectory() [email protected]"/" + filename;
21 if (file.exists(path))
22 {
23 using (streamreader sr = file.opentext(path))
24 {
25 string s = "";
26 while ((s = sr.readline()) != null)
27 {
28 chinesewordunit _tempunit = initunit(s);
29 _counttable.insertword(_tempunit.word);
30 }
31 }
32 }
33 }
34
35 /**//// <summary>
36 /// 将一个字符串解析为chinesewordunit。
37 /// </summary>
38 /// <param name="s">字符串</param>
39 /// <returns>解析得到的chinesewordunit</returns>
40 private static chinesewordunit initunit(string s)
41 {
42 regex reg = new regex(@"/s+");
43 string[] temp = reg.split(s);
44 if (temp.length!=2)
45 {
46 throw new exception("字符串解析错误:"+s);
47 }
48 return new chinesewordunit(temp[0],int32.parse(temp[1]));
49 }
50
51 /**//// <summary>
52 /// 分析输入的字符串,将其切割成一个个的词语。
53 /// </summary>
54 /// <param name="s">待切割的字符串</param>
55 /// <returns>所切割得到的中文词语数组</returns>
56 public static string[] parsechinese(string s)
57 {
58 int _length = s.length;
59 string _temp = string.empty;
60 arraylist _words = new arraylist();
61
62 for(int i=0;i<s.length;)
63 {
64 _temp = s.substring(i,1);
65 if (_counttable.getcount(_temp)>1)
66 {
67 int j=2;
68
69 for (;i+j<s.length+1&&_counttable.getcount(s.substring(i,j))>0;j++)
70 {
71 }
72 _temp = s.substring(i,j-1);
73 i = i + j - 2;
74 }
75 i++;
76 _words.add(_temp);
77 }
78
79 string[] _tempstringarray = new string[_words.count];
80 _words.copyto(_tempstringarray);
81 return _tempstringarray;
82 }
83 }
四、测试
和海量分词演示程序对比测试:
case 1: 新浪体育讯 在被尤文淘汰之后,皇马主帅博斯克拒绝接受媒体对球队后防线的批评,同时还为自己排出的首发阵容进行了辩护。“失利是全队的责任,而不仅仅是后防线该受指责,”博斯克说,“我并不认为我们踢得一塌糊涂。”“我们进入了半决赛,而且在晋级的道路上一路奋战。即使是今天的比赛我们也有几个翻身的机会,但我们面对的对手非常强大,他们踢得非常好。”“我们的球迷应该为过去几个赛季里我们在冠军杯中的表现感到骄傲。”博斯克还说。对于博斯克在首发中排出了久疏战阵的坎比亚索,赛后有记者提出了质疑,认为完全应该将队内的另一名球员帕文派遣上场以加强后卫线。对于这一疑议,博斯克拒绝承担所谓的“责任”,认为球队的首发没有问题。“我们按照整个赛季以来的方式做了,对于人员上的变化我没有什么可说的。”对于球队在本赛季的前景,博斯克表示皇马还有西甲联赛的冠军作为目标。“皇家马德里在冠军杯中战斗到了最后,我们在联赛中也将这么做。”
海量分词结果:
新浪 体育 讯 在 被 尤文 淘汰 之后 , 皇马 主帅 博斯克 拒绝 接受 媒体 对 球队 后防线 的 批评 , 同时 还 为 自己 排出 的 首发 阵容 进行 了 辩护 。 “ 失利 是 全队 的 责任 , 而 不 仅仅 是 后防线 该 受 指责 , ” 博斯克 说 , “ 我 并 不 认为 我们 踢 得 一塌糊涂 。” “ 我们 进入 了 半决赛 , 而且 在 晋级 的 道路 上 一路 奋战 。 即使 是 今天 的 比赛 我们 也 有 几个 翻身 的 机会 , 但 我们 面对 的 对手 非常 强大 , 他们 踢 得 非常 好 。” “ 我们 的 球迷 应该 为 过去 几个 赛季 里 我们 在 冠军 杯中 的 表现 感到 骄傲 。” 博斯克 还 说 。 对于 博斯克 在 首发 中 排出 了 久 疏 战阵 的 坎比亚索 , 赛后 有 记者 提出 了 质疑 , 认为 完全 应该 将 队 内 的 另 一名 球员 帕文 派遣 上场 以 加强 后卫线 。 对于 这 一 疑 议 , 博斯克 拒绝 承担 所谓 的 “ 责任 ” , 认为 球队 的 首发 没有 问题 。 “ 我们 按照 整个 赛季 以来 的 方式 做 了 , 对于 人员 上 的 变化 我 没有 什么 可 说 的 。” 对于 球队 在 本 赛季 的 前景 , 博斯克 表示 皇马 还有 西 甲 联赛 的 冠军 作为 目标 。 “ 皇家 马德里 在 冠军 杯中 战斗 到 了 最后 , 我们 在 联赛 中 也 将 这么 做 。”
chineseparse分词结果:
新 浪 体育 讯 在 被 尤 文 淘汰 之后 , 皇 马 主帅 博斯 克 拒绝 接受 媒体 对 球队 后防线 的 批评 , 同时 还 为 自己 排 出 的 首发 阵容 进行 了 辩护 。“ 失利 是 全队 的 责任 , 而 不仅仅 是 后防线 该 受 指责 , ” 博斯 克 说 , “ 我 并 不 认为 我们 踢 得 一塌糊涂 。 ” “ 我们 进入 了 半决赛 , 而且 在 晋级 的 道路 上一 路 奋战 。 即使 是 今天 的 比赛 我们 也 有 几 个 翻身 的 机会 , 但 我们 面对 的 对手 非常 强大 , 他们 踢 得 非常 好 。 ” “ 我们 的 球迷 应该 为 过 去 几 个 赛季 里 我们 在 冠军杯 中 的 表现 感到 骄傲 。 ” 博斯 克 还 说 。对于 博斯 克 在 首发 中排 出 了 久 疏 战 阵 的 坎 比 亚 索 , 赛后 有 记者 提出 了 质疑 , 认为 完全 应该 将 队 内 的 另一 名 球员 帕 文 派遣 上场 以 加强 后卫线 。 对于 这一 疑 议 , 博斯 克 拒绝 承担 所谓 的 “ 责任 ” , 认为 球队 的 首发 没有 问题 。 “ 我们 按照 整个 赛季 以来 的 方式 做 了 , 对于 人员 上 的 变化 我 没有 什么 可 说 的 。 ” 对于 球队 在 本赛 季 的 前景 , 博斯 克 表示 皇 马 还有 西 甲 联赛 的 冠军 作为 目标 。 “ 皇家 马德里 在 冠军杯 中 战斗 到 了 最后 , 我们 在 联赛 中 也 将 这么 做 。 ”
因为没有体育专业词库和人名专业词库,所以chineseparse不能认识这些专业词.
case 2: 我国汽车社会第一次重大转型历经十多年时间。在1994年出台的《汽车工业产业政策》中,最醒目的一条就是“逐步改变以行政机关、团体、事业单位及国有企业为主的公款购买、使用小汽车的消费结构”。从公款购买汽车为主到汽车逐渐进入家庭,第一次重大转型给人民生活质量带来了巨大提升。这次转型的主要推动力是态度鲜明的产业政策、持续高速增长的国民经济以及蓬勃发展的国内汽车工业。 然而,当我们快速迈进以私人汽车为主体的汽车社会的时候,也面临着新的形势、新的考验:中央强调树立和落实科学发展观,要求国内企业提高自主创新能力;今年“两会”期间,中央又提出构建和谐社会和节约型社会的精神;同时,我国汽车社会面临能源紧缺、燃油价格上涨、土地资源有限等诸多不利因素。在这样的大背景下,进行第二次重大转型刻不容缓。
海量分词结果:
我国 汽车 社会 第一次 重大 转型 历经 十多年 时间 。 在 1994年 出台 的 《 汽车 工业 产业 政策 》 中 , 最 醒目 的 一条 就是 “ 逐步 改变 以 行政 机关 、 团体 、 事业 单位 及 国有 企业 为主 的 公款 购买 、 使用 小汽车 的 消费 结构 ” 。 从 公款 购买 汽车 为主 到 汽车 逐渐 进入 家庭 , 第一次 重大 转型 给 人民 生活 质量 带来 了 巨大 提升 。 这次 转型 的 主要 推动力 是 态度 鲜明 的 产业 政策 、 持续 高速 增长 的 国民经济 以及 蓬勃 发展 的 国内 汽车 工业 。 然而 , 当 我们 快速 迈进 以 私人 汽车 为 主体 的 汽车 社会 的 时候 , 也 面临 着 新 的 形势 、 新 的 考验 : 中央 强调 树立 和 落实 科学 发展观 , 要求 国内 企业 提高 自主 创新 能力 ; 今年 “ 两会 ” 期间 , 中央 又 提出 构建 和谐 社会 和 节约型 社会 的 精神 ; 同时 , 我国 汽车 社会 面临 能源 紧缺 、 燃油 价格 上涨 、 土地 资源 有限 等 诸多 不利 因素 。 在 这样 的 大 背景 下 , 进行 第二次 重大 转型 刻不容缓 。
chineseparse分词结果:
我国 汽车 社会 第一 次 重大 转型 历经 十 多年 时间 。 在 1 9 9 4 年 出台 的 《 汽车 工业 产业 政策 》 中 , 最 醒目 的 一条 就是 “ 逐步 改变 以 行政 机关 、团体 、 事业 单位 及 国有 企业 为主 的 公款 购买 、 使用 小汽车 的 消费 结构 ”。 从 公款 购买 汽车 为主 到 汽车 逐渐 进入 家庭 , 第一 次 重大 转型 给 人民 生活 质量 带来 了 巨大 提升 。 这次 转型 的 主要 推动力 是 态度 鲜明 的 产业 政策 、 持续 高速 增长 的 国民经济 以及 蓬勃 发展 的 国内 汽车 工业 。 然而 , 当 我们 快速 迈进 以 私人 汽车 为主 体 的 汽车 社会 的 时候 , 也 面临 着 新 的 形势 、 新 的 考验 : 中央 强调 树立 和 落实 科学 发展观 , 要求 国内 企业 提高 自主 创新 能力 ; 今年 “ 两会 ” 期间 , 中央 又 提出 构建 和谐 社会 和 节约 型 社会 的 精神 ; 同时 , 我国 汽车 社会 面临 能源 紧缺 、 燃油 价格 上涨 、 土地 资源 有限 等 诸多不 利 因素 。 在 这样 的 大 背景 下 , 进行 第二 次 重大 转型 刻不容缓 。
可以看出,chineseparse不能智能处理"第一次","第二次"这种词,对数字也没识别能力,不过基本的分词效果还是可以的.
(毕竟我3个小时就把程序搞定了,怎么能和别人十年积累的比呢?)
性能测试(迅驰1.5m): 每秒钟67.7万字
程序优化有应该更高.
五、小结
进一步应该做的:
1,能识别简单的外语,数字
2,具备简单智能
3,扩充词库
然后就有实用价值了.
注:前几个月写的大多都是诸如此类简单的中文处理小程序,如繁简转换,自动排版,批量替换,中文分词,有时间的话我会把这些程序集中起来打包成一个实用的中文处理工具.不知道大家还有什么需求,不防说说.
新闻热点
疑难解答
图片精选