Eine AI kann man nur für die Verarbeitung von Wissen nutzen, das allgemein verfügbar ist.
Das ist das größte Missverständnis, dem ich leider noch viel zu oft begegne. NEIN! Das ist grundlegend Falsch.
Man darf sich grundsätzlich NIE auf das "Weltwissen" von LLMs berufen. Das ist lediglich statistischer Einheitsbrei aus allen Trainingsdaten. Das führt maximal zu wahrscheinlichen, aber nicht korrekten Ausgaben - und genau das ist der Grund für Halluzinationen wenn man das tatsächlich fälschlicherweise doch mal versucht.
Wenn man einem LLM eine Aufgabe gibt, muss man
grundsätzlich immer alles notwendige Wissen dazu mit in den Kontext geben.
Das nennt sich Grounding, und das kann man manuell machen, dem LLM mittels Tools Zugriff auf diese Informationen geben oder per RAG (Retrieval Augmented Generation) die Informationen basierend auf der Anfrage automatisch ermitteln und vor der Abfrage in den Kontext schreiben.
Der Lebenslauf ist da jetzt ein relativ unspektakuläres Beispiel, aber bleiben wir dabei: Man kann hier z.B. alle Infos zusammenhangslos in den Kontext werfen, z.B. auch Scans von Urkunden oder Zeugnissen sowie Projektberichte etc. reinwerfen, und das LLM nach einem selber Googlen lassen - und dann, mit den ganzen Infos im Kontext, kann es aus den nun 100% sicher richtigen Fakten im Kontext auch einen korrekten Lebenslauf formulieren.
Ein LLM ist wie ein sehr großer Raum voller Azubis - von ganz frischen bis fast fertigen und von eher nicht so hellen bis hin zu superschlauen - und die jeweils git durchmischt mit den jeweiligen Ausbildungsstufen. Das einzige was gegeben ist, ist, dass die alle so ziemlich jede Sprache fehlerfrei beherrschen. Eine Anfrage an ein LLM wird in den Raum geworfen, und man bekommt die Antwort unter der Tür durchgeschoben und hat keine Ahnung, wer von denen das jetzt abgearbeitet hat. Kurzum: Im Idealfall formuliert man seine Anfrage so, dass auch der eher nicht so schlaue Beginner damit zurecht kommen sollte - das bedeutet eben auch, alle notwendigen Infos vorneweg mit in die Aufgabe zu geben.
Um uns vor Halluzinationen zu schützen, schalten wir z.B. bei Business-Anwendungen noch ein zweites LLM dazu, dass nach der Antwort extra nochmal angewiesen wird zu prüfen, ob auch wirklich jede Info in der Antwort auch wirklich im Kontext vorgegeben war, oder ob in der Antwort auf einmal informationen stehen, die nicht in der Eingabe waren. Ist das der Fall, wird die Antwort als Halluzination verworfen. Selbst dann, wenn sie zufällig durch korrektes Weltwissen entstanden ist.