答案:通过计算图片哈希值可判断文件夹内是否有重复图片。1. 使用imagehash库的average_hash进行感知哈希比对,识别视觉相似图像;2. 用MD5哈希检测字节完全相同的文件;3. 统一转换为RGB模式后再计算哈希,解决不同格式但内容相同问题;4. 结合文件大小筛选、跳过特定文件、递归遍历子目录提升效率。根据需求选择合适方法即可准确找出重复图片。

判断文件夹内是否有重复图片,关键不是看文件名,而是比较图片内容是否相同。Python可以通过计算图片的哈希值来快速识别重复项。以下是几种实用方法:
1. 使用图像哈希(Image Hash)
将图片转换为哈希值,内容相同的图片哈希一致。常用的是感知哈希(Perceptual Hash),对轻微变化不敏感,适合找视觉上几乎一样的图。
# 安装依赖:pip install Pillow imagehash示例代码:
import os from PIL import Image import imagehashdef find_duplicate_images(folder_path): hashes = {} duplicates = []
for filename in os.listdir(folder_path): filepath = os.path.join(folder_path, filename) if not os.path.isfile(filepath): continue try: with Image.open(filepath) as img: img_hash = imagehash.average_hash(img) if img_hash in hashes: duplicates.append((filename, hashes[img_hash])) else: hashes[img_hash] = filename except Exception as e: print(f"无法处理文件 {filename}: {e}") return duplicates立即学习“Python免费学习笔记(深入)”;
运行后返回重复图片对,比如 ('pic2.jpg', 'pic1.jpg') 表示 pic2 和 pic1 内容重复。
2. 精确比对:使用MD5哈希
如果想找出完全一致的文件(字节级别相同),可以用文件的MD5值:
import os import hashlibdef get_file_hash(filepath): with open(filepath, 'rb') as f: return hashlib.md5(f.read()).hexdigest()
def find_exact_duplicates(folder_path): hash_dict = {} duplicates = []
for filename in os.listdir(folder_path): filepath = os.path.join(folder_path, filename) if not os.path.isfile(filepath): continue file_hash = get_file_hash(filepath) if file_hash in hash_dict: duplicates.append((filename, hash_dict[file_hash])) else: hash_dict[file_hash] = filename return duplicates立即学习“Python免费学习笔记(深入)”;
3. 处理不同格式但内容相同的图
有时同一张图保存为 .jpg 和 .png,内容一样但格式不同。这时用PIL加载后转成统一格式再哈希更可靠:
with Image.open(filepath) as img: img = img.convert('RGB') # 统一颜色模式 img_hash = imagehash.average_hash(img)这样即使格式不同,只要视觉内容接近,也能识别为重复。
4. 提高效率的小技巧
- 先按文件大小粗筛:大小不同的文件不可能完全一致
- 跳过缩略图或特定名称文件(如 thumbs.db)
- 支持子目录递归扫描时,用 os.walk() 替代 os.listdir()
基本上就这些。用 imagehash 最省事,准确率高;用 MD5 可以确保字节一致。根据需求选合适的方法就行。











