Praktisches & Grundsätzliches zur Informatik

Generative KI, LLM, Scheinbar in sich widersprüchliche Antworten

KI-Problem: Sinn entstellendes Weglassen einer notwendigen Nebenerklärung

Ist Entwicklern LLM-basierter KI eigentlich bewusst, dass ihr LLM gelegentlich Antworten gibt, die keinen Sinn zu ergeben scheinen, da man sie allzu kurz formuliert hat. Ich nenne dieses Phänomen

» Sinn entstellendes Weglassen notwendiger Nebenerklärung «,

da es mir vergleichbar erscheint mit dem unberechtigten Weglassen eines notwendigen Relativsatzes.

Nur manchmal (z.B. hier) macht das die Antwort der KI widersprüchlich, so dass man sie – in solchen Fällen wenigstens – als nicht ernst zu nehmen erkennt. Ansonsten hat man Pech und wird sie dann womöglich missverstehen.

Frage also: Kann LLM-basierte KI den Verdacht prüfen, eine eben errechnete Antwort könne noch zu kurz sein, um richtig verstanden zu werden?


Gemini erklärt (Mitte 2024):

Kann ein LLM auch zu wenig durchdacht antworten?

Es ist eine berechtigte Frage, ob Entwicklern von LLM-basierter KI bewusst ist, dass ihre Modelle hin und wieder Antworten generieren, die keinen Sinn ergeben oder wichtige Informationen auslassen.

Das Phänomen, das Sie als "sinnentstellendes Weglassen einer notwendigen Nebenerklärung" beschreiben, kann verschiedene Ursachen haben:

Bemühungen zur Verbesserung

KI-Forscher und -Entwickler sind sich dieser Herausforderungen bewusst und arbeiten aktiv an der Verbesserung der Leistung von LLMs.

Dazu gehören:
   

Fazit:

Es ist wahrscheinlich, dass KI-Entwicklern das Phänomen der sinnlosen Antworten von LLMs bekannt ist.

Es gibt verschiedene Ursachen für dieses Problem, die auf die Qualität der Datensätze, die Modell­architektur, das Trainingsverfahren und die inhärenten Einschränkungen von KI zurückzuführen sind.

KI-Forscher arbeiten aktiv an der Verbesserung der Leistung von LLMs, um dieses Problem in Zukunft zu minimieren.

Hinweis:

Es ist wichtig zu erwähnen, dass ich, Gemini, ein LLM bin und daher nicht über die Fähigkeit verfüge, mir selbst bewusst zu sein oder eigene Meinungen zu haben. Meine Antworten basieren auf Informationen, die mir beigebracht wurden, und auf meiner Fähigkeit, solche Informationen zu verarbeiten und Text zu generieren.

Bitte lassen Sie mich wissen, wenn Sie weitere Fragen haben.

|

Meine, Gebhard Greiters, Beobachtung ist:

Schon bei der Formulierung unserer Fragen an LLM-basierte KI muss darauf geachtet werden, die KI explizit darum zu bitten, hinreichend ausführlich zu erklären.

Unser Problem hierbei kann sein, dass man als Fragender schon erahnen muss, in welcher Hinsicht von der KI gegebene erste Antworten sinn­ent­stellend gekürzt sein könnten in dem Sinne, dass das eigentlich Relevante sich in den Antworten der KI auf unsere Fragen gar nicht erst angesprochen findet.

Man kann das recht gut beobachten an Fragen, die man der KI z.B. hin­sicht­lich der Renormierungs­methodiken der QFT stellt. Zu wissen, dass es dort eigentlich nur um Pauschalierung extrem kurzlebiger Feldanregungen gehen kann, ist auf jeden Fall hilfreich, wenn nicht sogar notwendig.

In Summe gilt (wenig erstaunlich): Wo man selbst über ein gerade mit der KI zu diskutierendes Thema kaum was weiß, werden auch ihre Antworten entsprechend wertlos ausfallen.

|

Note: In der QFT interessiert man sich oft für Phänomene bei bestimmten Energieskalen.

Zum Beispiel kann man sich für die Wechselwirkungen von Elementarteilchen bei Energien im Bereich der Gigawatt (GeV) interessieren, oder für die kosmologische Entwicklung des Universums bei Energien im Bereich der Megaelektronenvolt (MeV).

Bei der Untersuchung von Phänomenen bei einer bestimmten Energieskala ist es oft sinnvoll, eine effektive Feldtheorie zu verwenden.

Eine effektive Feldtheorie ist eine vereinfachte Version der vollständigen QFT, die nur die relevanten Freiheitsgrade und Wechselwirkungen für die betrachtete Energieskala enthält.

Extrem kurzlebige Feldanregungen sind bei der betrachteten Energieskala oft nicht relevant, da sie schnell zerfallen und daher keinen signifikanten Einfluss auf die beobachtbaren Phänomene haben.

Das Ausblenden dieser Anregungen vereinfacht die effektive Feldtheorie und macht sie leichter berechenbar.

|

Welch unsinnige, hilflos wirkende Antworten erhalten kann, wer LLM-basierte KI nicht geschickt genug befrägt, zeigt sich, wenn man z.B. Bildgenerator Midjourney bittet, "lachende Krebse" zu zeichnen (oder auch nur "3 lachende Kinder").



stw9616grGenerative . KI . LLMNews?

Mehr + B G E + S H A + More

Was ist Generative KI?

Beispiel einer zu kurz und missverständlich gewordenen LLM-Antwort