Unvermeidliche Schwächen LLM-basierter KI
Große Sprachmodelle wie GPT-4 sind darauf trainiert, Muster in umfangreichen Textmengen zu erkennen und diese Muster zu nutzen, um kohärente und grammatikalisch korrekte Texte zu generieren. Sie lernen, welche Wörter und Phrasen in bestimmten Kontexten üblich sind, verstehen aber nicht den wahren Sinn oder die Fakten hinter den Texten.Eine Konsequenz daraus ist, dass sie "Was wäre wenn ..."-Fragen tatsächlich in nur recht unvollkommener Weise beantworten können. Sie haben kein reales Weltwissen und können daher nicht zwischen Fakt und Fiktion unterscheiden.
Was sie auf solch kontrafaktische Fragen antworten, wird deswegen weit mehr von ihren Trainingsdaten abhängen als von tatsächlich in Realität gegebenen Fakten, Wahrscheinlichkeiten und logischen Zusammenhängen.
|
Dass LLM-basierte KI logisch fehlerfreies Argumentieren – Rechnen etwa – nur mäßig gut beherrscht, zeigt folgendes Meldung:
Ähnliche Muster zeigten sich bei anderen Aufgaben wie Programmierung, räumlichem Denken und logischem Schließen.
stw6606gr — LLM . KI . Sprachmodelle — News?
Mehr + B G E + S H A + More
LLMs: Funktionsweise und Intelligenzniveau
An was aus einem Chat kann LLM-basierte KI sich 2024 wie erinnern?
Was man zu Prompt Engineering wissen sollte
KI kann andere KI trainieren