Praktisches & Grundsätzliches zur Informatik


Unvermeidliche Schwächen LLM-basierter KI

Große Sprachmodelle wie GPT-4 sind darauf trainiert, Muster in umfangreichen Textmengen zu erkennen und diese Muster zu nutzen, um kohärente und grammatikalisch korrekte Texte zu generieren. Sie lernen, welche Wörter und Phrasen in bestimmten Kontexten üblich sind, verstehen aber nicht den wahren Sinn oder die Fakten hinter den Texten.

Eine Konsequenz daraus ist, dass sie "Was wäre wenn ..."-Fragen tatsächlich in nur recht unvollkomme­ner Weise beantworten können. Sie haben kein reales Weltwissen und können daher nicht zwischen Fakt und Fiktion unterscheiden.

Was sie auf solch kontrafaktische Fragen antworten, wird deswegen weit mehr von ihren Trainingsdaten abhängen als von tatsächlich in Realität gegebenen Fakten, Wahrscheinlichkeiten und logischen Zusammenhängen.

|

Dass LLM-basierte KI logisch fehlerfreies Argumentieren – Rechnen etwa – nur mäßig gut beherrscht, zeigt folgendes Meldung:

Bei Standardaddition im Dezimalsystem erreichte GPT-4 nahezu perfekte Genauigkeit von mehr als 95 Prozent. Im Zahlensystem zur Basis 9 aber fiel die Leistung auf unter 20 Prozent.

Ähnliche Muster zeigten sich bei anderen Aufgaben wie Programmierung, räumlichem Denken und logischem Schließen.




stw6606grLLM . KI . SprachmodelleNews?

Mehr + B G E + S H A + More

LLMs: Funktionsweise und Intelligenzniveau

An was aus einem Chat kann LLM-basierte KI sich 2024 wie erinnern?

Was man zu Prompt Engineering wissen sollte

KI kann andere KI trainieren