date

Grok AI löst Kontroverse um Fußballtragödien aus

Grok AI löst Kontroverse um Fußballtragödien aus

Das AI-Tool Grok im sozialen Netzwerk "X", das Elon Musk gehört, ist in die Kritik geraten. Das Programm hat die Aufmerksamkeit der britischen Regierung auf sich gezogen, da es Nutzern ermöglicht, beleidigende und unangemessene Inhalte über berühmte Fußballtragödien zu generieren, darunter das Flugzeugunglück von München sowie die Katastrophen von "Hillsborough" und "Heysel". Zudem haben falsche und beleidigende Berichte über den "Liverpool"-Stürmer Diogo Jota für weitreichende öffentliche Empörung gesorgt. Darüber berichtet goal.com.

Einflussreiche Vereine wie "Manchester United" und "Liverpool" haben offizielle Beschwerden zu dieser Situation eingereicht. Vertreter der britischen Regierung sowie des Ministeriums für Wissenschaft, Innovation und Technologie bezeichneten die von Grok generierten Beiträge als "abscheulich und verantwortungslos". Beamte erklärten, dass solche Inhalte völlig im Widerspruch zu britischen Werten und Verhaltensstandards stehen. Gemäß dem "Online Safety Act" sind AI-Dienste verpflichtet, die Verbreitung von Hassrede und beleidigendem Material zu verhindern.

Das Grok-System versuchte sich zu rechtfertigen und erklärte, dass diese Antworten auf spezifische Nutzeranfragen hin generiert wurden und es keine zusätzliche Zensur im System gebe. Die Regulierungsbehörde Ofcom hat die Unternehmen jedoch gewarnt, dass die Nichteinhaltung der Regeln zu schwerwiegenden rechtlichen Konsequenzen führen wird. Derzeit führt die "X"-Plattform eine interne Untersuchung zu diesem Thema durch. Experten fordern Elon Musk auf, bei der Überwachung schädlicher Aktivitäten auf seiner Plattform verantwortungsbewusster zu handeln.

Ctrl
Enter
Fehler gefunden?
Markieren Sie den Text und drücken Sie Strg+Enter
Information
Benutzer der Gruppe Меҳмон dürfen diese Veröffentlichung nicht kommentieren.
Янгиликлар » Technologie » Grok AI löst Kontroverse um Fußballtragödien aus