码迷,mamicode.com
首页 > 其他好文 > 详细

Pandas处理超大规模数据

时间:2019-06-23 14:16:12      阅读:104      评论:0      收藏:0      [点我收藏+]

标签:opp   ret   iter   logs   读取   操作   iterator   log   except   

对于超大规模的csv文件,我们无法一下将其读入内存当中,只能分块一部分一部分的进行读取;

  首先进行如下操作:

import pandas as pd
reader = pd.read_csv(‘data/servicelogs‘, iterator=True)

分块,每一块是一个chunk,之后将chunk进行拼接;
loop = True
chunkSize = 100000
chunks = []
while loop:
    try:
        chunk = reader.get_chunk(chunkSize)
        chunks.append(chunk)
    except StopIteration:
        loop = False
        print "Iteration is stopped."
df = pd.concat(chunks, ignore_index=True)

Pandas处理超大规模数据

标签:opp   ret   iter   logs   读取   操作   iterator   log   except   

原文地址:https://www.cnblogs.com/geeksongs/p/11072442.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!