Forum: Software-Projekte der Mitglieder
by negaH,
3. Aug 2005
Nochmal. Ich gehe davon aus das Step 3.) und 4.) separate Funktionen sind. Beide Funktionen müssen also die Dateien öffnen, Daten einlesen, diese vergleichen und Dateien wieder schließen.
Falls nun Step 4.) immer ausgeführt wird wenn Step 3.) sagt das die ersten 2048 Bytes gleich sind dann würde man also 1 mal zuviel Dateien öffen, Daten einlesen, Daten vergleichen und Dateien wieder...
Forum: Software-Projekte der Mitglieder
by negaH,
3. Aug 2005
Mein Vorschlag sollte dir eigentlich nur bewusst machen das ein "Stückchenhafter" Vergleich zweier Dateien in deinem Szenario nur überflüssige Rechenleistung kosten wird.
Die Methodik von D.J.Bernstein lohnt sich nur wenn bei jedem größer werdenden Vergleich die Komplexität eben nicht linear proportional ansteigt, sondern zb. expotentiell oder qudratisch, oder man mehrere Berechnungen über...
Forum: Software-Projekte der Mitglieder
by negaH,
3. Aug 2005
@Bigg:
Diesen Ansatz kannst du weiter ausbauen. D.J.Bernstein, ein genialer Mathematiker und Analyst, benutzt bei seinen vielen mathematischen Verfahren ein ähnliches Vergleichsverfahren.
Du vergleichst immer Stückchenweise beide Dateien solange sie gleich sind. Die Stückchen sind erst zb. 1024 Bytes groß, dann 1024*2 Bytes, dann 1024*4, 1024*8, 1024*16 usw. Bytes groß.
Wie man aber...