# !/usr/bin/python
# -*- coding: UTF-8 -*-
from collections import defaultdict
from hashlib import md5
from os import getcwd, walk
import os.path
def find_files(filepath):
for root, directories, filenames in walk(filepath):
for filename in filenames:
yield os.path.join(root, filename)
file_hashes = defaultdict(list)
for path in find_files(getcwd()):
with open(path, mode='rb') as my_file:
file_hash = md5(my_file.read()).hexdigest()
file_hashes[file_hash].append(path)
for paths in file_hashes.values():
if len(paths) > 1:
print("Duplicate files found:")
print(*paths, sep='\n')
「喜欢这篇文章,您的关注和赞赏是给作者最好的鼓励」
关注作者
【版权声明】本文为墨天轮用户原创内容,转载时必须标注文章的来源(墨天轮),文章链接,文章作者等基本信息,否则作者和墨天轮有权追究责任。如果您发现墨天轮中有涉嫌抄袭或者侵权的内容,欢迎发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。




