Bei sagen wir mal 100.000 Dateien a 25Mb Größe jede, benötigen wir ca. 1 Sekunde pro hash und ca. 256 Bytes pro Datei als datensatz. Macht eine
DB von 24Mb und eine Dauer von 28 Stunden um die Hashs zu ziehen. Der eigentliche Vergleich auf Duplikate geht dann enorm schnell über den Vergleich der Hashs. Diese Angaben sind eher überschätzt und ich vermute das das viel schneller geht, denn wer hat schon 100.000 Dateien a 25Mb größe auf der Platte ?
Also durchaus machbar.
Gruß Hagen