Einzelnen Beitrag anzeigen

shadowman

Registriert seit: 1. Nov 2005
48 Beiträge
 
#11

AW: Limitierte Dateigröße mit SingleFileDataStorage?

  Alt 27. Okt 2014, 09:52
Danke für die Vorschläge,

das mit 7-Zip hatte ich bisher nicht auf dem Radar. Generell ist es gut Alternativen zu haben, wobei ich eine Umstellung möglichst vermeiden würde. Das Ganze wird für die Datensicherung / Datenwiederherstellung eingesetzt...

Deswegen habe ich zumindest vorerst nach der Ursache gesucht.

Das Seltsame ist, dass eine Datei mit ca. 8 GB erstellt und auch gelesen werden kann. Es wurden testweise 1GB-Dateien erstellt, die einfach mit Nullen gefüllt sind. Damit kommt der Basic SFDS File Creator klar, so wie es aussieht.

Dann habe ich weiter getestet und mir eine ca. 70 MB große Datei geschnappt, die mehrfach kopiert, bis das Ergebnis bei über 4 GB lag. Ich habe also den Fall, dass wenn ich eine Kopie lösche, die Sicherung klappt, wenn ich sie wieder hinzufüge, ist das Ergebnis fehlerhaft.

Die Dateieinträge kommen ganz am Ende der erstellten Datei. Bei der korrupten Datei sucht sie der Reader anhand der gespeicherten Position an einer Stelle, an der es sie noch nicht gibt, sprich viel zu früh, so dass der Write sich in so einem Fall verhauen und dabei eine Fehlerhafte Position für die Dateieinträge speichern müsste. Also habe ich erstmal beim Write geschaut.

Geschrieben werden die Einträge in TSFDSCustomWriter.WriteFileEx. In einer Schleife wird die jeweilige Datei in Chunks (ChunkSize in Höhe von 32KB wird dabei verwendet) geschrieben. Bei einer 70MB Datei sind es ziemlich viele Durchläufe, also habe ich mir da die einzelnen Schritte / Werte ausgeben lassen, um die Stelle zu finden, an der es einen Unterschied.

Die letzte Datei der funktionierenden Sicherung bzw. die vorletzte Datei der korrupten Sicherung sind soweit identisch von den Werten her, hier am Beispiel des Schleifendurchlaufs Nr. 146:
Code:
-------------------------------------------------------------
Durchlauf Nr. 146
-------------------------------------------------------------
BytesCopied: 32768
K: 4784128
SourceStream.Size:       4294950087
SourceStream.Position:    4294950087
Write(CopyBuffer^, BytesCopied)...
SourceStream.Size:       4295081159
SourceStream.Position:    4295081159
Nach dem Aufruf von "Write" sind die 4GB schon überschritten, aber es funktioniert noch. "SourceStream.Size" ist dabei immer gleich "SourceStream.Position" - sowohl vor "Write" als auch danach. Im Schleifendurchlauf Nr. 147 der korrupten Sicherung, also mit einer weiteren 70 MB Datei, sieht man dann eine Abweichung:
Code:
-------------------------------------------------------------
Durchlauf Nr. 147
-------------------------------------------------------------
BytesCopied: 32768
K: 4816896
SourceStream.Size:       4295081159
SourceStream.Position:    4295081159
Write(CopyBuffer^, BytesCopied)...
   -> result := Compressor.Write(Buffer, Count);
      -> SourceStream.Size:       4295081159
      -> SourceStream.Position:    113863 <-------------
      FileSize vorher:    4784128
      result:               32768
      FileSize nachher: 4816896
In "Write(CopyBuffer^, BytesCopied)" wird nach der Zeile "result := Compressor.Write(Buffer, Count);" SourceStream.Position plötzlich zurückgesetzt auf einen viel kleineren Wert, was nach dem oben beschriebenen Problem aussieht. Nur weiß ich nicht so richtig, wieso das passiert...
  Mit Zitat antworten Zitat