首页 > 编程 > Python > 正文

Python找出文件中使用率最高的汉字实例详解

2020-01-04 18:07:28
字体:
来源:转载
供稿:网友

这篇文章主要介绍了Python找出文件中使用率最高的汉字,涉及Python针对字符串与中文的相关操作技巧,需要的朋友可以参考下

本文实例讲述了Python找出文件中使用率最高的汉字的方法。分享给大家供大家参考。具体分析如下:

这是我初学Python时写的,为了简便,我并没在排序完后再去掉非中文字符,稍微会影响性能(大约增加了25%的时间)。

 

 
  1. # -*- coding: gbk -*-  
  2. import codecs  
  3. from time import time  
  4. from operator import itemgetter  
  5. def top_words(filename, size=10, encoding='gbk'):  
  6. count = {}  
  7. for line in codecs.open(filename, 'r', encoding):  
  8. for word in line:  
  9. if u'/u4E00' <= word <= u'/u9FA5' or u'/uF900' <= word <= u'/uFA2D':  
  10. count[word] = 1 + count.get(word, 0)  
  11. top_words = sorted(count.iteritems(), key=itemgetter(1), reverse=True)[:size]  
  12. print '/n'.join([u'%s : %s次' % (word, times) for word, times in top_words])  
  13. begin = time()  
  14. top_words('空之境界.txt')  
  15. print '一共耗时 : %s秒' % (time()-begin)  

如果想用上新方法,以及让join的可读性更高的话,这样也是可以的:

 

 
  1. # -*- coding: gbk -*-  
  2. import codecs  
  3. from time import time  
  4. from operator import itemgetter  
  5. from heapq import nlargest  
  6. def top_words(filename, size=10, encoding='gbk'):  
  7. count = {}  
  8. for line in codecs.open(filename, 'r', encoding):  
  9. for word in line:  
  10. if u'/u4E00' <= word <= u'/u9FA5' or u'/uF900' <= word <= u'/uFA2D':  
  11. count[word] = 1 + count.get(word, 0)  
  12. top_words = nlargest(size, count.iteritems(), key=itemgetter(1))  
  13. for word, times in top_words:  
  14. print u'%s : %s次' % (word, times)  
  15. begin = time()  
  16. top_words('空之境界.txt')  
  17. print '一共耗时 : %s秒' % (time()-begin) 

或者让行数更少(好囧的列表综合):

 

 
  1. # -*- coding: gbk -*-  
  2. import codecs  
  3. from time import time  
  4. from operator import itemgetter  
  5. def top_words(filename, size=10, encoding='gbk'):  
  6. count = {}  
  7. for word in [word for word in codecs.open(filename, 'r', encoding).read() if u'/u4E00' <= word <= u'/u9FA5' or u'/uF900' <= word <= u'/uFA2D']:  
  8. count[word] = 1 + count.get(word, 0)  
  9. top_words = sorted(count.iteritems(), key=itemgetter(1), reverse=True)[:size]  
  10. print '/n'.join([u'%s : %s次' % (word, times) for word, times in top_words])  
  11. begin = time()  
  12. top_words('空之境界.txt')  
  13. print '一共耗时 : %s秒' % (time()-begin) 

此外还可以引入with语句,这样只需一行就能获得异常安全性。

3者性能几乎一样,结果如下:

 

 
  1. 的 : 17533次 
  2. 是 : 8581次 
  3. 不 : 6375次 
  4. 我 : 6168次 
  5. 了 : 5586次 
  6. 一 : 5197次 
  7. 这 : 4394次 
  8. 在 : 4264次 
  9. 有 : 4188次 
  10. 人 : 4025次 
  11. 一共耗时 : 0.5秒 

引入psyco模块的成绩:

 

 
  1. 的 : 17533次 
  2. 是 : 8581次 
  3. 不 : 6375次 
  4. 我 : 6168次 
  5. 了 : 5586次 
  6. 一 : 5197次 
  7. 这 : 4394次 
  8. 在 : 4264次 
  9. 有 : 4188次 
  10. 人 : 4025次 
  11. 一共耗时 : 0.280999898911秒 

注:测试文件为778KB的GBK编码,40余万字。

希望本文所述对大家的Python程序设计有所帮助。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表