
Zitat von
TigerLilly:
Mir gruselts bei dem Gedanken, dass man die Dinge, wo man sich selber nicht so gut auskennt, dann für bare Münze nimmt bzw übersieht, was für ein Holler das ist.
Hab' mir vor kurzem mal von ChatGPT erklären lassen, wie KI funktioniert.
Dabei kamen dann auch folgende Aussagen:

Zitat von
ChatGPT:
Sprachmodelle optimieren auf „Plausibilität“, nicht auf Wahrheit.
Ich bin darauf trainiert, das *Plausibelste* zu sagen – nicht zwingend das *Wahrste*.
Warum ist das so?
Weil ich ein sogenanntes "wahrscheinlichkeitsbasiertes Sprachmodell" bin. Das bedeutet:
- Ich berechne für jedes neue Wort oder Satzfragment: „Was ist statistisch gesehen das Nächstwahrscheinlichste?“
- Das Ziel: "Stimmigkeit", "Kohärenz", "Lesbarkeit" – also ein Satz, der sich gut anhört und oft „so ähnlich“ in der Welt auftritt.
Das ist nützlich bei:
- Texte schreiben
- Dialoge führen
- Zusammenhänge erläutern
Aber gefährlich bei:
- Faktenwissen
- Juristischen Auslegungen
- Wissenschaftlicher Genauigkeit
Warum kann Plausibilität zur Falle werden?
Weil "Plausibilität <> Wahrheit".
Ein Beispiel:
„Albert Einstein wurde 1905 mit dem Nobelpreis für seine Relativitätstheorie ausgezeichnet.“
Klingt "sehr plausibel", ist aber "falsch":
- Einstein erhielt 1921 den Nobelpreis
- …und "nicht" für die Relativitätstheorie, sondern für den "photoelektrischen Effekt"
Deshalb lautet die goldene Regel im Umgang mit KI: „Vertraue dem Stil – aber prüfe die Substanz.“
Oder, etwas flapsiger: „Klingt schlau? Lieber nochmal nachschauen.“
Und da liegt das Problem: Was eine KI sagt, klingt plausibel, mehr aber auch nicht. In einer Antwort von einer KI muss nichts, aber wirklich auch garnichts, stimmen. Er reicht, wenn es plausibel klingt.
Was sollen wir denn in Zukunft von einer KI erwarten, die mit allem aus Facebook und Co. trainiert wird? Ist dann auf einmal das Ergebnis von "allen Facebookpost o. ä." und daraus per Wahrscheinlichkeit berechneter Plausibilität "richtig"?

Zitat von
Rollo62:
Komisch, ich habe das Problem selten das es halluziniert.
Ich habe mir aber auch angewöhnt, dass ich die Aufgabe exakt und detailliert beschreibe und alles notwendige Hintergrundwissen oder Vorlagen mitliefere.
Dann bekomme ich in 99.9% sehr gute und passende Antworten.
Wird etwas vergessen, dann lasse ich das ergänzen.
Genau das ist das "Kunststück", das eine sinnvolle Arbeit mit KI möglich und effektiv macht.
Je genauer und präziser und ausgefeilter die Fragestellung, um so größer die Wahrscheinlichkeit, dass eine KI auch eine passende Antwort erstellen kann. Dazu muss sie halt in ihrem Fundus passende "Gegenstücke" finden und aus diesen per Wahrscheinlichkeit eine plausible Antwort bilden. Eine unpräzise Frage kann nicht zu einer präzisen Antwort führen.
Je genauer ich weiß, was ich wissen will (und das in der Fragestellung formuliere), um so größer ist die Wahrscheinlichkeit, dass ich eine verwertbare Antwort erhalte.
Eine KI denkt nicht, sie sucht lediglich in ihrem Fundus, was am wahrscheinlichsten zum bisher gesagten passen könnte. Man könnte auch sagen: Raten auf hohem Niveau