Zitat:
Je genauer ich weiß, was ich wissen will (und das in der Fragestellung formuliere), um so größer ist die Wahrscheinlichkeit, dass ich eine verwertbare Antwort erhalte.
Jein. Ja, wenn es dazu Trainingsmaterial gegeben hat + das LLM dazu trainiert wurde. Nein, wenn das Trainingsmaterial dazu "dünn" war (oder dünn gehalten wurde).
Gutes Beispiel: Wenn ich ChatGPT auffordere, einen Lebenslauf von mir zu erstellen und Infos zu mir vorgebe, damit klar ist, wer ich bin, dann ist das wohl maximal eingegrenzt. Das Ergebnis ist zu 90% korrekt, aber manche Sachen sind einfach frei erfunden:
Studium der Informatik, Technische Universität Wien - Ja, stimmt
Abschluss: Diplomingenieur (Dipl.-Ing.) - Nein, falsch.
Teach-IT GmbH (2001–2005) - Ja, stimmt.
Position: Geschäftsführender Gesellschafter - Ja, stimmt.
Tätigkeit: Didaktische und technische Entwicklung von E-Learning-Systemen - völlig falsch.
IT-Kenntnisse
Programmiersprachen: Delphi (Object Pascal),
SQL,
HTML - richtig
Datenbanken: Firebird,
MySQL - richtig
Betriebssysteme: Windows, Linux - Linux? Never!
Tools: Git, Jira, Projektmanagement-Software - Jira? Never.
Dabei kann ich mir gut vorstellen, dass ein Recruiter oder wer aus HR, sich auf diese Daten verlässt.
Eine AI kann man nur für die Verarbeitung von Wissen nutzen, das allgemein verfügbar ist. Das dürfte bei einem Lebenslauf für eine einzelne Person wohl kaum zutreffen. Bei einer bekannten Persönlichkeit mag das anders sein, aber sicherlich nicht für jedes beliebige menschliche Wesen auf diesem Planeten.
Hier schlägt dann die Wahrscheinlichkeit zu: Es wird geschaut, wie so ein Lebenslauf aussehen könnte, es werden also Analogien zu den Vorgaben gesucht und dann im Ergebnis die Infos zusammengetragen, die mit hoher Wahrscheinlichkeit zu den Vorgaben passen könnten.
Vermutlich können viele Personen, deren Lebensläufe Deinem ähneln, halt eben auch mit Linux und Jira umgehen. Damit weißt Du nun, wo Deine "Wissenslücken" sind, mit deren Schließung Du Deine Chancen am Arbeitsmarkt erhöhen kannst
Und wer an 'ner Technische Universität studiert ist doch nachher Dipl.-Ing., das weiß doch jeder
Hier schlägt also sichtbar zu:

Zitat von
ChatGPT:
Sprachmodelle optimieren auf „Plausibilität“, nicht auf Wahrheit.
Ich bin darauf trainiert, das *Plausibelste* zu sagen – nicht zwingend das *Wahrste*.
Ok: Informatikstudium mit Abschluss Dipl.-Ing. ist vielleicht jetzt doch nicht so plausibel, da hätt' ich eher 'nen Dipl.-Inf. erwartet, aber man weiß ja nie
Wenn ich einen Lebenslauf von mir haben will, kann ich nicht mit einem vernünftigen Ergebnis rechnen, genauso wenig, wie mit einer präzisen Wettervorhersage für heute in drei Jahren
Bei präzisen Wissensabfragen auf bekanntes Wissen kann ich mit recht plausiblen Antworten rechnen. Bei allem Anderen muss ich mit plausibel klingendem Spekulatius rechnen