Zitat:
Je genauer ich weiß, was ich wissen will (und das in der Fragestellung formuliere), um so größer ist die Wahrscheinlichkeit, dass ich eine verwertbare Antwort erhalte.
Jein. Ja, wenn es dazu Trainingsmaterial gegeben hat + das LLM dazu trainiert wurde. Nein, wenn das Trainingsmaterial dazu "dünn" war (oder dünn gehalten wurde).
Gutes Beispiel: Wenn ich ChatGPT auffordere, einen Lebenslauf von mir zu erstellen und Infos zu mir vorgebe, damit klar ist, wer ich bin, dann ist das wohl maximal eingegrenzt. Das Ergebnis ist zu 90% korrekt, aber manche Sachen sind einfach frei erfunden:
Studium der Informatik, Technische Universität Wien - Ja, stimmt
Abschluss: Diplomingenieur (Dipl.-Ing.) - Nein, falsch.
Teach-IT GmbH (2001–2005) - Ja, stimmt.
Position: Geschäftsführender Gesellschafter - Ja, stimmt.
Tätigkeit: Didaktische und technische Entwicklung von E-Learning-Systemen - völlig falsch.
IT-Kenntnisse
Programmiersprachen: Delphi (Object Pascal),
SQL,
HTML - richtig
Datenbanken: Firebird,
MySQL - richtig
Betriebssysteme: Windows, Linux - Linux? Never!
Tools: Git, Jira, Projektmanagement-Software - Jira? Never.
Dabei kann ich mir gut vorstellen, dass ein Recruiter oder wer aus HR, sich auf diese Daten verlässt.