Delphi-PRAXiS
Seite 2 von 2     12   

Delphi-PRAXiS (https://www.delphipraxis.net/forum.php)
-   Die Delphi-IDE (https://www.delphipraxis.net/62-die-delphi-ide/)
-   -   Rechnen mit der GPU (https://www.delphipraxis.net/152778-rechnen-mit-der-gpu.html)

Der schöne Günther 5. Nov 2013 20:20

AW: Rechnen mit der GPU
 
Wer hier im Forum regelmäßig Zahlen mit CUDA oder OpenCL cruncht weiß ich nicht, aber die "OpenCL for Delphi"-Seite der Brno-Universität ist doch praktisch brandaktuell?

http://lab4.fme.vutbr.cz/heatlab/OpenCLforDelphi.html

Ich habe irgendwie verpasst, dass nVidia mit auf den OpenCL-Zug gesprungen ist. Ich hätte gedacht, die halten stur an ihrem geschlossenen CUDA fest. Toll, dass sich das geändert hat. Schade nur dass ich privat keine aktuelle Grafikkarte habe. Irgendwie hätte ich auch Lust darauf, nur so zum Spaß 8-)

rollstuhlfahrer 5. Nov 2013 21:25

AW: Rechnen mit der GPU
 
Zitat:

Zitat von Sougetsu (Beitrag 1234619)
Wäre über das berechnen über die GPU auch interessiert, vorallem ob man damit gut Dateien ver/entschlüsseln kann.
Mit gut meine ich natürlich zuverlässlich und schnell.

Für die Ver-/Entschlüsselung würde ich eher die AES Erweiterung der CPU verwenden. Die haben ein paar Vorteile: sie sind geprüft und schnell genug, dass man den RAM schneller verarbeiten kann als lesen/schreiben.

Grüße
rollstuhlfahrer

Sougetsu 5. Nov 2013 21:32

AW: Rechnen mit der GPU
 
jup ich will das auch eher als sport betreiben, weils halt spannend ist die gpu fürs berechnen zu nutzen.
und was bietet sich da besser an als eine ver/entschlüsselung mal zu programmieren wo byte hin und her berechnet werden.


naja mir schwebt da schon so ne starke verschlüsselung mit rsa 2048bit vor.

LG
Sougetsu

BUG 5. Nov 2013 22:02

AW: Rechnen mit der GPU
 
Zitat:

Zitat von Sougetsu (Beitrag 1234630)
jup ich will das auch eher als sport betreiben, weils halt spannend ist die gpu fürs berechnen zu nutzen.
und was bietet sich da besser an als eine ver/entschlüsselung mal zu programmieren wo byte hin und her berechnet werden.

naja mir schwebt da schon so ne starke verschlüsselung mit rsa 2048bit vor.

Ich habe irgendwie den Eindruck, dass du weder mit der GPU noch von Verschlüsselung besonders viel Erfahrung hast :mrgreen: Ich auch nicht.
Insofern finde ich das eine etwas unpraktische Wahl. Es sicher eine spannende Aufgabe, eines der Paper über Bei Google suchenparallel RSA nach-zu-implementieren; aber als Einstieg vielleicht nicht das Beste.

Als Einstiegsprojekt wäre afaik etwas geeignet, was einfach zu verstehen ist: zelluläre Automaten (zB. Game of Life), einfache Simulationen (Schwärme, Sonnensystem, Partikel).

Blup 6. Nov 2013 08:17

AW: Rechnen mit der GPU
 
Wie weiter vorn schon erwähnt, ist Verschlüsselung vom Prinzip eher ungeeignet für die GPU.
Für diesen Anwendungsbereich scheinen mir FPGA interessanter zu sein.

Sougetsu 8. Nov 2013 22:19

AW: Rechnen mit der GPU
 
Moin,

naja es ist schon zweckemfremdet, aber gehen sollte es.
Gibt ja auch schon Tools die Hashs über GPU berechnen und wohl auch schon
Tools die AES via OpenCL/GPU berechnen können.

LG
Sougetsu

Medium 8. Nov 2013 23:25

AW: Rechnen mit der GPU
 
Das mag durchaus gehen, jedoch sind viele Verfahren (generell gesprochen) oftmals nicht so ganz offensichtlich parallelisierbar, und bedürfen einiger Kniffe und Umformungen des Problems um das überhaupt in merkbarem Umfang nutzen zu können.

Einfach so parallelisierbar sind Probleme, bei denen auf einer größeren Menge von Eingangsdaten gleicher Art, die selbe Operation angewendet werden soll, wobei unbedingt keine Operation auf das Ergebnis einer anderen im selben Schritt angewiesen ist. Dinge, die dieser Form nicht entsprechen, müssen vor brauchbarer Implementierung auf Vektorprozessoren (was GPUs sind) in diese so weit es geht gebracht werden.

Nicht umsonst ist die Heimat dieser Prozessoren in der Grafik: Hier müssen traditionell völlig voneinaner unabhägige Punkte (Vektoren) im 3D Raum transformiert werden. Das kann man getrost mit allen gleichzeitig machen, da die Matrizen für alle die selben sind. Und auch bei Pixel-Orientierten Berechnungen ist es ähnlich trivial, da für die meisten in der Praxis relevanten Filter zwar vielleicht mehr als 1 Pixel in eine Berechnung eingeht, jedoch immer in seiner Eingangswertigkeit, so dass auch hier problemlos alles gleichzeitig gemacht werden kann.

Anderes Beispiel ist das Rechnen mit riesigen Matrizen, die strukturell schon fast einem Bitmap entsprechen, und sich bei den meisten Operationen ähnlich günstig verhalten.

Probleme, die nicht trivial oder leicht umformbar diese Eigenschaften haben, sind zuweilen echt kompliziert umzuformulieren, und erfordern ggf. sogar im Grundsatz schon eine andere Sicht- und Herangehensweise. Manche lassen sich gar nicht anpassen. Da ich kein Krypto-Man bin weiss ich nicht genau welche Algos sich im Detail da wie verhalten, aber vom Prinzip her kann ich mir schon vorstellen, dass das nicht mehr GPGPU für Anfänger ist. Das es das für manche Algos gibt will ich wieder besseren Wissens nicht anfechten, ich möchte nur in Frage stellen, ob das mal so eben aus dem Handgelenk geht, und wie tief die Parallelisierung da überhaupt geht (sprich: Wie viel Vorteil holt man am Ende heraus).

Die Einsetzbarkeit von GPGPU ist hochgradig vom ganz spezifischen Problem abhängig. Da reicht nichtmals "Krypto" als Stichwort, man muss den exakten Algo untersuchen.


Alle Zeitangaben in WEZ +1. Es ist jetzt 11:12 Uhr.
Seite 2 von 2     12   

Powered by vBulletin® Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024 by Thomas Breitkreuz