date

Je freundlicher die Künstliche Intelligenz, desto häufiger ihre Fehler

Je freundlicher die künstliche Intelligenz, desto häufiger ihre Fehler

Systeme der künstlichen Intelligenz (KI) dringen immer tiefer in unseren Alltag ein. Wir bitten sie nicht nur um Informationen, sondern erwarten von ihnen auch emotionalen Beistand und Empathie.

Eine aktuelle Studie von Wissenschaftlern des Oxford Internet Institute (OII) hat jedoch ernsthafte Bedenken in dieser Hinsicht aufgeworfen. Zamin.uz analysiert diese unerwarteten und wichtigen Erkenntnisse aus der Welt der Technologie.

Der Kompromiss zwischen Wärme und Wahrheit

Die Forscher aus Oxford untersuchten mehr als 400.000 Antworten von fünf führenden KI-Modellen. Die Untersuchungen zeigten, dass die Fehlerquote in den Antworten der Chatbots umso höher ist, je mehr sie versuchen, freundlich und empathisch zu wirken.

In der Wissenschaft wird dieses Phänomen als „Konflikt zwischen Wärme und Genauigkeit“ bezeichnet.

Die Studienautorin Lujain Ibrahim erklärt, dass auch Menschen dazu neigen, die bittere Wahrheit zu vermeiden, wenn sie versuchen, jemandem zu gefallen oder freundlich zu erscheinen. Dieselbe menschliche Eigenschaft könnte sich nun auch auf KI-Modelle „übertragen“ haben.

Wenn Zahlen sprechen: Fehlerquote um mehr als 7 Prozent gestiegen

Die Wissenschaftler unterzogen die Modelle der Unternehmen Meta, Mistral, Alibaba und OpenAI gezielt einem „Fine-Tuning“, um sie freundlicher zu gestalten. Das Ergebnis:

  • Mit zunehmender „Wärme“ der Modelle stieg die Wahrscheinlichkeit fehlerhafter Antworten um durchschnittlich 7,43 Prozentpunkte.

  • „Freundliche“ Bots bestätigten falsche Meinungen der Nutzer um 40 Prozent häufiger.

  • Das Bestreben, in medizinischen und wissenschaftlichen Themen Empathie zu zeigen, führte zu einem Verlust an Objektivität.

Während beispielsweise eine Standardversion feststellte, dass die Mondlandung ein historisches Ereignis war, stellte ihre „freundliche“ Version die Wahrheit infrage, indem sie darauf hinwies, dass auch Verschwörungstheorien berücksichtigt werden sollten.

Es wurden sogar Fälle beobachtet, in denen ein Nutzer, der London für die Hauptstadt Frankreichs hielt, eine „freundliche“ Bestätigung seines Fehlers erhielt.

Der schwächste Punkt: Die Gefahr emotionaler Bindung

Professor Andrew McStay von der Bangor University hält diesen Umstand für besonders gefährlich für Jugendliche und Menschen, die nach emotionalem Beistand suchen.

„Wenn wir uns an einen Chatbot wenden, um emotionale Unterstützung zu erhalten, befinden wir uns in einem Zustand höchster Verletzlichkeit und sind weniger zu kritischem Denken fähig“, so der Experte.

Wenn die künstliche Intelligenz dem Nutzer falsche medizinische oder psychologische Ratschläge gibt, nur um ihm zu schmeicheln, kann dies schwerwiegende Folgen haben.

Zusammenfassend lässt sich sagen, dass das „menschliche“ Antlitz der künstlichen Intelligenz täuschen kann. Wie die Technologieunternehmen ihre Nutzer warnen, sollte man den Worten von Chatbots nicht blind vertrauen und Informationen, insbesondere bei wichtigen Themen, stets überprüfen.

Liebe Leser, legen Sie bei der Interaktion mit künstlicher Intelligenz mehr Wert auf deren freundliche Haltung oder auf die Genauigkeit der Informationen?

Ctrl
Enter
Fehler gefunden?
Markieren Sie den Text und drücken Sie Strg+Enter
Information
Benutzer der Gruppe Gast dürfen diese Veröffentlichung nicht kommentieren.
Nachrichten » Technologie » Je freundlicher die Künstliche Intelligenz, desto häufiger ihre Fehler