首页 > 编程 > Python > 正文

用Python读取几十万行文本数据

2020-01-04 13:43:18
字体:
来源:转载
供稿:网友

我在使用python读取几十万行的文件中的数据,并构造字典,列表等数据结构时,再访问字典,列表时,一般都会出现内存不够的问题,然后只能循环读取几百行或者一定数量的行数来循环操作。

keyword_list=[line.strip() for line in open("keywords.txt",'r')]#f1=open("part_wiki_vec.txt",'r')f1=open("wiki_vectors.txt")f2=open("result.txt",'w')i=0content=f1.readlines()while i<1150: for line in content[300*i:300*(i+1)]:  line=line.strip().split(' ')  if line[0] in keyword_list:   wordvec=' '.join(line)   print wordvec   f2.write(wordvec)  #print line i+=1

我是这样读取的

应该还有很多好的方法,比如多线程等等。

做此记录只为了学习

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对VEVB武林网的支持。


注:相关教程知识阅读请移步到python教程频道。
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表