如何在Python中将读取的大型csv文件拆分为均匀大小的块?

如何在Python中将读取的大型csv文件拆分为均匀大小的块?,第1张

如何在Python中将读取的大型csv文件拆分为均匀大小的块?

只需将您的

reader
下标包装到即可
list
。显然,这会在大型文件上中断(请参见下面的 更新 中的替代方法):

>>> reader = csv.reader(open('big.csv', 'rb'))>>> lines = list(reader)>>> print lines[:100]...

进一步阅读:如何在Python中将列表分成均匀大小的块?


更新1 (列表版本):另一种可能的方法是处理每个卡盘,因为它们在遍历行时到达:

#!/usr/bin/env pythonimport csvreader = csv.reader(open('4956984.csv', 'rb'))chunk, chunksize = [], 100def process_chunk(chuck):    print len(chuck)    # do something useful ...for i, line in enumerate(reader):    if (i % chunksize == 0 and i > 0):        process_chunk(chunk)        del chunk[:]  # or: chunk = []    chunk.append(line)# process the remainderprocess_chunk(chunk)

更新2生成器版本):我尚未对其进行基准测试,但是也许可以通过使用块 生成器 来提高性能:

#!/usr/bin/env pythonimport csvreader = csv.reader(open('4956984.csv', 'rb'))def gen_chunks(reader, chunksize=100):    """     Chunk generator. Take a CSV `reader` and yield    `chunksize` sized slices.     """    chunk = []    for i, line in enumerate(reader):        if (i % chunksize == 0 and i > 0): yield chunk del chunk[:]  # or: chunk = []        chunk.append(line)    yield chunkfor chunk in gen_chunks(reader):    print chunk # process chunk# test gen_chunk on some dummy sequence:for chunk in gen_chunks(range(10), chunksize=3):    print chunk # process chunk# => yields# [0, 1, 2]# [3, 4, 5]# [6, 7, 8]# [9]

@totalhack
指出,这是一个小陷阱:

请注意,这会反复产生具有不同内容的相同对象。如果您计划在每次迭代之间使用大块来完成所需的所有 *** 作,则此方法很好用。



欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zaji/5644359.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-12-16
下一篇2022-12-16

发表评论

登录后才能评论

评论列表(0条)

    保存