
只需将您的
reader下标包装到即可
list。显然,这会在大型文件上中断(请参见下面的 更新 中的替代方法):
>>> reader = csv.reader(open('big.csv', 'rb'))>>> lines = list(reader)>>> print lines[:100]...进一步阅读:如何在Python中将列表分成均匀大小的块?
更新1 (列表版本):另一种可能的方法是处理每个卡盘,因为它们在遍历行时到达:
#!/usr/bin/env pythonimport csvreader = csv.reader(open('4956984.csv', 'rb'))chunk, chunksize = [], 100def process_chunk(chuck): print len(chuck) # do something useful ...for i, line in enumerate(reader): if (i % chunksize == 0 and i > 0): process_chunk(chunk) del chunk[:] # or: chunk = [] chunk.append(line)# process the remainderprocess_chunk(chunk)更新2 (生成器版本):我尚未对其进行基准测试,但是也许可以通过使用块 生成器 来提高性能:
#!/usr/bin/env pythonimport csvreader = csv.reader(open('4956984.csv', 'rb'))def gen_chunks(reader, chunksize=100): """ Chunk generator. Take a CSV `reader` and yield `chunksize` sized slices. """ chunk = [] for i, line in enumerate(reader): if (i % chunksize == 0 and i > 0): yield chunk del chunk[:] # or: chunk = [] chunk.append(line) yield chunkfor chunk in gen_chunks(reader): print chunk # process chunk# test gen_chunk on some dummy sequence:for chunk in gen_chunks(range(10), chunksize=3): print chunk # process chunk# => yields# [0, 1, 2]# [3, 4, 5]# [6, 7, 8]# [9]@totalhack
指出,这是一个小陷阱:
请注意,这会反复产生具有不同内容的相同对象。如果您计划在每次迭代之间使用大块来完成所需的所有 *** 作,则此方法很好用。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)