![]() |
AW: LM Studio mit deepseek-r1-distill-qwen-7b
Ich war am überlegen mir SDXL auf dem Notebook zu installieren. Nachdem ich die Anforderungen gesehen habe würde ich gerne mal ein Google Rechenzentrum besichtigen. ... die lassen einen dort kostenlos eigene SDXL Instanzen aufsetzen:cyclops:Ich habe nur keine Lust meine Ergebnisse mit denen zu teilen. Daher geht das leider nicht.
Wenn ich mir in ein paar Jahren einen neuen Laptop von XMG zulege sollte der in der lage sein eine heutige SDXL vernünftig zu verwenden. |
AW: LM Studio mit deepseek-r1-distill-qwen-7b
Zitat:
Es hat unter diesen Umständen erstaunlich gut funktioniert, ist aber natürlich so nicht wirklich brauchbar. Wobei die "Performance" im direkten Chat sogar noch halbwegs erträglich war. Via API in der IDE ist es, weil synchron auf die Antwort gewartet und dabei die IDE blockiert wird, nicht brauchbar. Ich werde es bei Gelegenheit mal auf einem schnelleren Rechner testen, aber die meisten, die mir zur Verfügung stehen, haben auch nur Intel-Grafik. |
AW: LM Studio mit deepseek-r1-distill-qwen-7b
Zitat:
Im Moment spriesst ja überall was aus dem Boden. Wie gesagt, MacMini, MacStudio ist gar nicht so schlecht vom Preis- Leistungsverhältnis, ich denke ein AMD-PC kommt auch nur in diese Region. Damit kann man so 3-8GB große LLMs halbwegs laufen lassen. So richtig interessant wird es aber, wenn es mal spezielle KI-Pcs geben wird, die dann mit gigantischem, schnellen Speicher auch große Modell laufen lassen können. Viel hilft viel ... Es gibt da sowas ![]() oder auch das ![]() oder neue Prozessoren ![]() Ich würde erstmal abwarten was da so kommt, denn so 2-4K muss man für ein halbwegs flottes KI-System schon ausgeben. Eine starke Nvidia GPU in einen PC-Stecken ist nicht ganz so interessant, das frisst nur viel Energie und hat nicht genug Speicher OnBoard. Ich glaube es kommen da bald sehr spezielle KI-Systeme auf den Markt. |
AW: LM Studio mit deepseek-r1-distill-qwen-7b
Zu mindestens habe ich gelesen, dass es die großen nVidia GPU's auch mit bis zu 96 GB RAM demnächst geben soll.
Ich hatte gehofft, dass es auch mit einem Strix Halo (o.ä.) auch für einfachere Dinge gehen würde. Den Quatsch von MS, wo man sich von den Daten her total blank macht, braucht wohl kein Mensch. deshalb haben sie das wohl auch wieder entfernt. |
Alle Zeitangaben in WEZ +1. Es ist jetzt 04:58 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024-2025 by Thomas Breitkreuz