当前位置: 移动技术网 > IT编程>脚本编程>Python > python 快速把超大txt文件转存为csv的实例

python 快速把超大txt文件转存为csv的实例

2018年11月05日  | 移动技术网IT编程  | 我要评论

艾伦希亚战记下载,文水县人民政府,巴厘岛的天气

今天项目有个需求,就是把txt文件转为csv,txt之间是空格隔开,转为csv时需要把空格转换为逗号,网上找的一个版本,只需要三行代码,特别犀利:

import numpy as np
import pandas as pd

data_txt = np.loadtxt('datas_train.txt')
data_txtdf = pd.dataframe(data_txt)
data_txtdf.to_csv('datas_train.csv',index=false)

上述的datas_train.txt只有不到100mb,560w行数据,三分钟之内转换完毕。

然后我换了一个5600w行共1.2g的txt文本,用上述代码转换,电脑直接卡死了。

原因在于上述代码会把全部的txt加载进内存,然后再转换,这就会造成电脑内存耗尽。

然后就想到了切割数据的办法,具体实现如下:

import numpy as np
import pandas as pd


train_data = pd.read_table('big_data.txt',iterator=true,header=none)

while true:
 try:
  chunk = train_data.get_chunk(5600000)
  chunk.columns = ['user_id','spu_id','buy_or_not','date']
  chunk.to_csv('big_data111.csv', mode='a',header=false,index = none)
 except exception as e:
  break

这里我把数据分成了小块,每块数据有560w行,分11次加载就能全部加载完了,速度也很快,总共花了5分钟左右。

注意,get_chunk()里面的参数表示文件的行数,而非字节数。

以上这篇python 快速把超大txt文件转存为csv的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持移动技术网。

如对本文有疑问,请在下面进行留言讨论,广大热心网友会与你互动!! 点击进行留言回复

相关文章:

验证码:
移动技术网