使用Pandas分块处理大文件


问题:今天在处理快手的用户数据时,遇到了一个差不多600M的txt文本,用sublime打开都蹦了,我用pandas.read_table()去读,差不多花了近2分钟,最后打开发现差不多3千万行数据。这仅仅是打开,如果要处理不知得多费劲。

解决:我翻了一下文档,这一类读取文件的函数有两个参数:chunksize、iterator

原理就是不一次性把文件数据读入内存中,而是分多次。

1、指定chunksize分块读取文件

read_csv 和 read_table 有一个 chunksize 参数,用以指定一个块大小(每次读取多少行),返回一个可迭代的
TextFileReader 对象。
table=pd.read_table(path+'kuaishou.txt',sep='\t',chunksize=1000000) for df in
table: 对df处理 #如df.drop(columns=['page','video_id'],axis=1,inplace=True) #print(
type(df),df.shape)打印看一下信息
我这里又对文件进行了划分,分成若干个子文件分别处理(没错,to_csv也同样有chunksize参数)

2、指定iterator=True

iterator=True同样返回的是TextFileReader对象
reader = pd.read_table('tmp.sv', sep='\t', iterator=True) df=reader.get_chunk(
10000) #通过get_chunk(size),返回一个size行的块 #接着同样可以对df处理
直接看看pandas文档在这一方面的内容
<http://pandas.pydata.org/pandas-docs/stable/io.html?spm=a2c4e.11153940.blogcont405170.9.15563bdeC8CoXl#iterating-through-files-chunk-by-chunk>
吧。

友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:[email protected]
QQ群:637538335
关注微信