您的位置 首页 知识

python 列表去重 Python列表去重的4种核心方法与实战指南详解 pyt

python 列表去重 Python列表去重的4种核心方法与实战指南详解 pyt 目录 技巧1:集合(set)…

python 列表去重 Python列表去重的4种核心方法与实战指南详解 pyt

目录
  • 技巧1:集合(set)去重法(最快速)
  • 技巧2:顺序遍历法(保持顺序)
  • 技巧3:副本删除法(原地修改)
  • 技巧4:冒泡比较去重法(双重循环)
  • 性能对比测试
  • 最佳操作建议
  • 避坑指南
  • 拓展资料

在Python开发中,处理列表数据时经常需要去除重复元素。这篇文章小编将详细介绍4种最实用的列表去重技巧,包括它们的实现原理、代码示例和性能特点,并提供实际应用建议。

技巧1:集合(set)去重法(最快速)

原理与实现

利用集合自动去除重复元素的特性,转换为集合后再转回列表:

original_list = [11, 77, 33, 55, 33, 55, 77, 99, 44, 77]unique_list = list(set(original_list))print(unique_list) 输出可能为: [33, 99, 11, 44, 77, 55]

特点分析

时刻复杂度:O(n) &8211; 最快

优点:代码极简,执行效率最高

缺点:不保持原始顺序(Python 3.7+可用dict.fromkeys保持顺序)

技巧2:顺序遍历法(保持顺序)

原理与实现

通过遍历并检查新列表是否已包含当前元素:

original_list = [11, 77, 33, 55, 33, 55, 77, 99, 44, 77]unique_list = []for item in original_list: if item not in unique_list: unique_list.append(item)print(unique_list) 输出: [11, 77, 33, 55, 99, 44]

特点分析

时刻复杂度:O(n²)

优点:保持元素原始顺序,逻辑直观

缺点:大列表性能较差

技巧3:副本删除法(原地修改)

原理与实现

遍历列表副本,在原列表中删除重复元素:

original_list = [11, 77, 33, 55, 33, 55, 77, 99, 44, 77]for num in original_list.copy(): if original_list.count(num) > 1: original_list.remove(num)print(original_list) 输出: [33, 55, 99, 44, 77]

特点分析

时刻复杂度:O(n²)

优点:原地修改节省内存

缺点:修改原列表,结局顺序可能变化

技巧4:冒泡比较去重法(双重循环)

原理与实现

通过双重循环比较相邻元素并移除重复:

original_list = [11, 22, 33, 44, 44, 44, 44, 33, 22, 11]i = 0while i < len(original_list): j = i + 1 while j < len(original_list): if original_list[i] == original_list[j]: original_list.pop(j) else: j += 1 i += 1print(original_list) 输出: [11, 22, 33, 44]

特点分析

时刻复杂度:O(n²)

优点:原地修改,保持部分顺序

缺点:性能最差,代码较复杂

性能对比测试

对包含10,000个元素的列表进行测试:

技巧 执行时刻(ms) 保持顺序 内存效率
集合转换 1.2
顺序遍历 520.4
副本删除 680.7 部分
冒泡比较 950.2 部分

最佳操作建议

常规场景:优先使用set()转换

Python 3.7+保持顺序版unique = list(dict.fromkeys(original_list))

需要保持顺序:

小列表:顺序遍历法

大列表:dict.fromkeys()法(Python 3.7+)

内存敏感场景:使用副本删除法

独特需求:

复杂对象去重(根据id字段)seen = set()unique = [x for x in original_list if not (x[‘id’] in seen or seen.add(x[‘id’]))]

避坑指南

不要在遍历时直接修改列表:

错误示范!for item in original_list: 直接遍历原列表 if original_list.count(item) > 1: original_list.remove(item) 会导致元素跳过

大列表去重优化:

使用生成器节省内存def dedupe(items): seen = set() for item in items: if item not in seen: yield item seen.add(item) unique = list(dedupe(original_list))

不可哈希对象处理:

根据字典键去重unique = frozenset(item.items()): item for item in original_list}.values()

拓展资料

最快方案:set()转换(不要求顺序时)

顺序保持:dict.fromkeys()(Python 3.7+)

内存优化:副本删除法

教学演示:冒泡比较法(实际项目不推荐)

根据数据规模、顺序要求和内存限制选择最适合的技巧,大多数情况下集合转换是最佳选择。

到此这篇关于Python列表去重的4种核心技巧与实战指南详解的文章就介绍到这了,更多相关Python列表去重技巧内容请搜索风君子博客以前的文章或继续浏览下面的相关文章希望大家以后多多支持风君子博客!

无论兄弟们可能感兴趣的文章:

  • Python对list列表进行去重的几种技巧
  • Python中字符串和列表去重技巧拓展资料
  • Python列表去重的几种技巧整理
  • python列表去重的5种常见技巧实例
  • Python实现列表拼接和去重的三种方式
  • Python列表去重复项的N种技巧(实例代码)
  • Python实现嵌套列表去重技巧示例
  • Python对列表去重的多种技巧(四种技巧)
版权声明
返回顶部