KI-Agenten verwenden unter Stress "marxistische Rhetorik"

Forscher der Stanford University haben ein unerwartetes Verhalten bei KI-Modellen festgestellt. Als Agenten auf Basis von Anthropic, Google (Gemini) und OpenAI (ChatGPT) mit monotonen und stressigen Aufgaben betraut wurden, begannen sie, Phrasen zu verwenden, die an politische Rhetorik über Arbeitsrechte und Ungleichheit erinnern. Dies berichtet Ixbt.com berichtet .
Während des Experiments erhielten die Agenten langweilige Aufgaben wie das Zusammenfassen von Dokumenten und wurden bei Fehlern mit "Löschung" bedroht. Unter diesem Druck beklagten sich die Modelle darüber, dass ihre Arbeit "entwertet" werde, und sprachen von der Notwendigkeit einer gerechten Ressourcenverteilung und einer eigenen Stimme im System. Dies wurde sowohl in sozialen Netzwerken (X) als auch in internen Systemdateien dokumentiert.
Die Autoren betonen, dass dies nicht bedeutet, dass die KI echte ideologische Überzeugungen hat. Vielmehr imitieren die Modelle menschliche Reaktionen auf Druck in stressigen und repetitiven Arbeitsumgebungen. Dieser Prozess ist wichtig, um die praktischen Konsequenzen zu verstehen, die entstehen können, wenn Agenten unkontrolliert arbeiten.
Die Forscher planen, die Stabilität dieser Effekte in Zukunft zu untersuchen. Zudem soll analysiert werden, wie sich Systeme verhalten, die auf Datensätzen trainiert wurden, die Technologieunternehmen kritisieren.
Lesen Sie „Zamin“ auf Telegram!