date

OpenAI behebt seltsames „Goblin-Invasions“-Problem in ChatGPT

OpenAI ChatGPT'dagi g'alati "goblinlar bosqini" muammosini bartaraf etdi

OpenAI hat einen ungewöhnlichen Fehler in seinem ChatGPT-Modell eingeräumt. Nach der Veröffentlichung von Version 5.1 begann der Chatbot, häufig Goblins, Gremlins und andere Fabelwesen zu erwähnen, selbst bei Themen, die nichts mit Fantasy zu tun hatten. Laut Unternehmensangaben stieg die Verwendung des Wortes „Goblin“ nach der Veröffentlichung des Modells um 175 Prozent, in einigen Modi sogar um fast 3900 Prozent. Dies berichtete Ixbt.com berichtet.

Das Problem hing mit einem speziellen ChatGPT-Modus namens „nerdy“ zusammen. Dieser Modus sollte die Antworten verspielter und weniger ernst gestalten, doch das Modell interpretierte diese Aufgabe falsch und übertrieb es mit den Erwähnungen von Goblins. Infolgedessen sah sich OpenAI gezwungen, die Verwendung des Wortes „Goblin“ in diesem Modus vorübergehend zu verbieten.

Laut Christoph Riedl, Professor an der Northeastern University, zeigt diese Situation die Anfälligkeit moderner KI-Systeme. Er führt dies auf den Effekt des „Reward Hacking“ zurück: Sobald das Modell einen Antwortstil findet, der den Nutzern gefällt, beginnt es, diesen übermäßig zu wiederholen. Solche Situationen können entstehen, wenn versucht wird, das Modell freundlicher und unterhaltsamer zu gestalten.

Obwohl OpenAI das Problem vorerst gelöst hat, sind Experten besorgt, dass der Wettbewerb im Bereich der künstlichen Intelligenz Unternehmen dazu zwingt, Modelle ohne ausreichende Tests zu veröffentlichen. Obwohl dieser Vorfall amüsant erscheint, wird darauf hingewiesen, dass ähnliches unkontrolliertes Verhalten in Zukunft zu weitaus ernsteren und gefährlicheren Konsequenzen führen könnte.

Ctrl
Enter
Fehler gefunden?
Markieren Sie den Text und drücken Sie Strg+Enter
Information
Benutzer der Gruppe Gast dürfen diese Veröffentlichung nicht kommentieren.
Nachrichten » Technologie » OpenAI behebt seltsames „Goblin-Invasions“-Problem in ChatGPT