![]() |
Upload großer Dateien
Hallo,
Ich möchte aus meiner Anwendung per HTTP(s) Dateien auf meinen Webserver übertragen. Diese Dateien sind sehr groß (immer < 1 GB, bis zu 20 GB). Nun könnte ich mit den Indy HTTP Komponenten einfach einen Stream "Posten" und so die Daten an meinen Webserver übergeben. Ich habe nun allerdings schon vielfach gelesen, dass es bei großen Dateien zu Problemen mit der Dateigröße kommt, da diese dann zunächst in den Arbeitsspeicher geladen wird und dann in einem Stück gepostet wird. Kennt jemand einen guten Weg, große Dateien per HTTPS zu übertragen? Vielleicht eine Komponenten die die File in Chunks aufteilt oder ähnliches? Andere Protokolle (FTP, SFTP,...) kommen leider nicht in Frage. |
AW: Upload großer Dateien
Ohne wirklich etwas in der Richtung gemacht zu haben würde ich behaupten dass die angesprochenen Probleme daher kommen, wenn man die Dateien (die ja schon irgendwo auf der Platte liegen) wirklich mit Methoden wie LoadFromFile(..) oder ähnliches reinlädt oder an Indy übergibt.
Ich habe mit Indy nie viel gemacht, aber neben Dateien hat das Ding garantiert Unterstützung für Streams. Dann nimmst du einen ![]() ![]() |
AW: Upload großer Dateien
Unabhängig davon, ob die Übertragung über den RAM, eine FileCahe oder direkt abläuft, hat z.B. PHP (was ist dein WebServer?) einige LIMITs bei der Größe der POST-Daten und dem RAM.
![]() Auch deswegen übertragen viele Webseiten Uploads via JavaScript (AJAX und Co.) ... teilen es da auf und führen intern z.B. mehrere HTTP-Requests durch. Es gibt auch WebDAV-Implementationen die mit PHP/JavaScript laufen und in "normale" Webseiten integriert werden könnten. Als Beispiel ist z.B. im ![]() |
AW: Upload großer Dateien
Über die Serverseite hatte ich mir auch schon Gedanken gemacht.
Wenn man den Upload aufteilen will, dann müsste man auf der Programm-Seite den Stream auch in "Chunks" aufteilen und irgendwie ein intelligentes Script auf der Serverseite schreiben, dass die Chunks wieder zusammenbaut. Ich denke ich könnte das alles implementieren, ich hatte aber gehofft, dass es dafür schon ein Framwork gibt. Aufteilen hätte auch den Vorteil, dass man das sogar multithreaded laufen lassen könnte, um mehr Bandbreite zu nutzen. |
AW: Upload großer Dateien
Zitat:
Das verstehe ich nicht, sind deine einzelnen Verbindungen von der Gesamtbandbreite beschränkt so das ein multi-connect tatsächlich mehr speed bringt? Ansonsten würde ich meinen das so ein vorhaben eher kontra-produktiv ist da immer ein Paket auf ein anderes warten muss um wieder ein ganzes zu werden. |
AW: Upload großer Dateien
Eventuell/Vermutlich kannst bei deinem Webserver auch etwas über CGI oder ASP nachrüsten
und z.B. am PHP vorbei mit Perl oder Python und in Windows-Servern sogar als EXE/DLL. ![]() Mit einem Rootserver (auch bei virtual und dedicated) wäre aber etwas Eigenes via TCP/IP bestimmt einfacher und kann man auch über JavaScript clientseitig von der Webseite ansprechen. Bei uns redet z.B. demnächst ein WebClient mit dem in Delphi geschriebenem DataSnap-Server (REST). Für andere Platformen, wie z.B. Adroid auf einem Tablet mit Laser-Barcodescanner, nutzen wir kein Delphi. (Embarcadero war da einfach zu langsam und hat es verkackt) |
AW: Upload großer Dateien
Kommt sowas in Frage?
![]() Das arbeitet bei großen Dateien automatisch mit Chunks und hat noch ein paar andere nützliche Features an Bord (Progressbar, Preview-Images, etc.). Außerdem ist es gratis. |
AW: Upload großer Dateien
Vielen Dank für die vielen hilfreichen Hinweise.
Ich implementiere es gerade so: - Intelligentes PHP Script dass immer Teile einer Datei annimmt sowas wie: upload.php?file=test.bin&chunk=4711 (auf dem Server werden die Chunks abgelegt: test.bin_4711 - Delphi teilt den Stream in 10 MB Teile und läd die an das o.g. PHP Script (idHTTP Post) - Am Ende poste ich ein "finish" an das Script und das Script setzt (wenn die Chunks durchgehend sind) die File dann wieder zusammen Damit muss ich das ganze nicht sequentiell abarbeiten und kann theoretisch paralell mehrere Teile übertragen (muss aber nicht) Was ich durch das Teilen leider verliere ist die Möglichkeit einen Upload weiter durchzuführen, falls er abbricht. Normal könnte ich mit "Head" prüfen, wie groß die File auf dem Server ist und an dieser Stelle weiter machen, aber in meinem Szenario kann ich das denke ich vernachlässigen. |
AW: Upload großer Dateien
Vorschlag, so kenne ich es von anderen Systemen.
Im ersten Schritt den Upload registrieren mit Gesamtgröße in Bytes und einer Chunkgröße, dann kannst Du diese auch ggf. anpassen, wenn mal eine schlechte Verbindung besteht. Der Server antwortet mit einer Upload-ID. Du kannst übrigens auf modernen Windows-Rechnern direkt eine Datei mit der gewünschten Größe anlegen (dauert nur ein paar Millisekunden, FileStream.Size := AnzahlderBytes) Dann im Upload nur die Chunk# und Upload-ID übergeben und diese dann direkt in die Zieldatei schreiben. Des Weiteren hast Du eine Bitmap für alle Chunks, und setzt das entsprechende Bit, wenn ein Chunk oben ist. Dann musst Du abschließend nicht ein "Fertig" senden. Außerdem kannst Du somit auch einen Upload fortsetzen, da der Server dem Client auch antworten kann, ob ein Chunk bereits existiert ;-) ...:cat:... |
AW: Upload großer Dateien
Cool Danke! :thumb:
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 15:24 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024-2025 by Thomas Breitkreuz