用Set去重因时间复杂度O(1)优于手动遍历O(n²),但自定义对象须重写equals和hashCode且保持一致;需保留插入顺序应选LinkedHashSet,TreeSet会排序失序;修改Set中对象影响hashCode的字段会导致查找失败。

为什么用 Set 而不是手动遍历去重
因为 Set 接口的语义就是“不重复元素的集合”,底层实现(如 HashSet)通过哈希表自动处理重复判断,时间复杂度平均为 O(1);而手动用 List 遍历 + contains() 判断,每次查找都是 O(n),整体变成 O(n²)。尤其数据量稍大(比如 >1000 条),性能差距明显。
HashSet 去重的前提:对象必须正确重写 equals() 和 hashCode()
如果去重的是自定义对象(比如 User 类),只新建 HashSet 是没用的——默认继承 Object 的 hashCode() 返回内存地址,每个实例都不同,HashSet 就认为全是“新元素”。
必须确保:
- 逻辑上相等的对象,
hashCode()返回值必须相同 -
equals()比较字段和hashCode()计算字段必须一致(比如都基于id和name) - 字段一旦加入
Set,就不应再修改影响hashCode()的值(否则可能再也找不到了)
public class User {
private Long id;
private String name;
// 构造、getter 省略
@Override
public boolean equals(Object o) {
if (this == o) return true;
if (o == null || getClass() != o.getClass()) return false;
User user = (User) o;
return Objects.equals(id, user.id) && Objects.equals(name, user.name);
}
@Override
public int hashCode() {
return Objects.hash(id, name); // 和 equals 用的字段完全一致
}
}
保留插入顺序?用 LinkedHashSet,别用 TreeSet
TreeSet 虽然也能去重,但它按自然顺序或指定 Comparator 排序,**不保证原始插入顺序**。如果业务要求“去重但保持第一次出现的顺序”,必须选 LinkedHashSet。
立即学习“Java免费学习笔记(深入)”;
示例:
Listlist = Arrays.asList("a", "b", "a", "c", "b"); Set set = new LinkedHashSet<>(list); // ["a", "b", "c"] // 不要写成 new TreeSet<>(list),结果是 ["a", "b", "c"] 但靠字典序,且丢失原始位置信息
从 List 去重并转回 List 的安全写法
常见错误是直接 new ArrayList(new HashSet(list))——这会丢失顺序,且对自定义对象若没重写 equals/hashCode 会失效。
推荐做法(兼顾顺序、类型安全、可读性):
- 简单类型(
String,Integer等):用LinkedHashSet构造后再转ArrayList - Java 8+:可用
Stream.distinct(),它依赖equals(),也保持遇到顺序 - 注意:不要用
Collectors.toSet(),它返回的是无序Set实现(通常是HashSet)
List实际项目里最容易被忽略的,是把可变对象(比如含未冻结字段的original = Arrays.asList("x", "y", "x", "z"); List unique = new ArrayList<>(new LinkedHashSet<>(original)); // 或 Stream 版本: List unique2 = original.stream().distinct().collect(Collectors.toList());
DTO)塞进 Set 后又去修改其关键字段——这时候对象的 hashCode() 变了,但 Set 内部桶位置没更新,导致既查不到、也删不掉、还可能重复添加。










