Python-从列表列表中删除重复项

Python-从列表列表中删除重复项,第1张

Python-从列表列表中删除重复
>>> k = [[1, 2], [4], [5, 6, 2], [1, 2], [3], [4]]>>> import itertools>>> k.sort()>>> list(k for k,_ in itertools.groupby(k))[[1, 2], [3], [4], [5, 6, 2]]

itertools
通常会为此类问题提供最快,最强大的解决方案,非常值得你熟悉!!)

编辑:正如我在评论中提到的那样,正常的优化工作主要集中在大型输入(big-O方法)上,因为它要容易得多,可以提供良好的回报。但是有时(本质上是对推动性能极限界限的深层内部代码循环中的“悲剧性瓶颈”),可能需要更详细地介绍概率分布,从而确定要优化的性能指标(可能是上限或第90个百分位数比平均值或中位数更重要,具体取决于一个人的应用程序),一开始执行启发式检查,然后根据输入数据特征选择不同的算法,依此类推。

仔细测量“点”性能(特定输入的代码A与代码B)是此极其昂贵的过程的一部分,而标准库模块

timeit
在此方面可以提供帮助。但是,在shell提示符下使用它更容易。例如,以下是一个简短的模块,展示了此问题的一般方法,另存为
nodup.py

import itertoolsk = [[1, 2], [4], [5, 6, 2], [1, 2], [3], [4]]def doset(k, map=map, list=list, set=set, tuple=tuple):  return map(list, set(map(tuple, k)))def dosort(k, sorted=sorted, xrange=xrange, len=len):  ks = sorted(k)  return [ks[i] for i in xrange(len(ks)) if i == 0 or ks[i] != ks[i-1]]def dogroupby(k, sorted=sorted, groupby=itertools.groupby, list=list):  ks = sorted(k)  return [i for i, _ in itertools.groupby(ks)]def donewk(k):  newk = []  for i in k:    if i not in newk:      newk.append(i)  return newk# sanity check that all functions compute the same result and don't alter kif __name__ == '__main__':  savek = list(k)  for f in doset, dosort, dogroupby, donewk:    resk = f(k)    assert k == savek    print '%10s %s' % (f.__name__, sorted(resk))

请注意进行完整性检查(仅在执行时执行python nodup.py)和基本的提升技术(使每个函数局部具有恒定的全局名称以提高速度),以使事物处于平等的地位。

现在,我们可以在较小的示例列表上运行检查:

$ python -mtimeit -s'import nodup' 'nodup.doset(nodup.k)'100000 loops, best of 3: 11.7 usec per loop$ python -mtimeit -s'import nodup' 'nodup.dosort(nodup.k)'100000 loops, best of 3: 9.68 usec per loop$ python -mtimeit -s'import nodup' 'nodup.dogroupby(nodup.k)'100000 loops, best of 3: 8.74 usec per loop$ python -mtimeit -s'import nodup' 'nodup.donewk(nodup.k)'100000 loops, best of 3: 4.44 usec per loop

证实了二次方法具有足够小的常数,使其对于具有很少重复值的小列表具有吸引力。简短清单,无重复:

$ python -mtimeit -s'import nodup' 'nodup.donewk([[i] for i in range(12)])'10000 loops, best of 3: 25.4 usec per loop$ python -mtimeit -s'import nodup' 'nodup.dogroupby([[i] for i in range(12)])'10000 loops, best of 3: 23.7 usec per loop$ python -mtimeit -s'import nodup' 'nodup.doset([[i] for i in range(12)])'10000 loops, best of 3: 31.3 usec per loop$ python -mtimeit -s'import nodup' 'nodup.dosort([[i] for i in range(12)])'10000 loops, best of 3: 25 usec per loop

二次方法还不错,但排序和分组比较好。等等

如果(对性能的痴迷表明)此 *** 作是在边界应用程序的核心内循环中进行的,则值得在其他代表性输入样本上尝试同一组测试,可能会检测到一些可以启发式地让你感到满意的简单措施选择一种或另一种方法(但是措施一定要很快)。

还值得考虑使用其他表示形式k-为什么它必须首先是列表列表而不是一组元组?如果重复删除任务很频繁,并且性能分析表明它是程序的性能瓶颈,则始终保留一组元组,并仅在需要和需要时才从中获取列表列表,例如,整体上可能会更快。



欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zaji/4985358.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-11-14
下一篇2022-11-14

发表评论

登录后才能评论

评论列表(0条)

    保存