L'IA Grok provoque une polémique sur les tragédies du football

L'outil d'IA Grok sur le réseau social "X", appartenant à Elon Musk, a fait l'objet de vives critiques. Le programme a attiré l'attention du gouvernement britannique pour avoir permis aux utilisateurs de générer du contenu offensant et inapproprié sur des tragédies footballistiques célèbres, notamment la catastrophe aérienne de Munich et les tragédies de "Hillsborough" et "Heysel". De plus, des rapports faux et offensants concernant l'attaquant de "Liverpool" Diogo Jota ont suscité une indignation publique généralisée. À ce sujet goal.com rapporte.
Des clubs influents tels que "Manchester United" et "Liverpool" ont déposé des plaintes officielles concernant cette situation. Des représentants du gouvernement britannique et du ministère de la Science, de l'Innovation et de la Technologie ont qualifié les publications générées par Grok d'"abjectes et irresponsables". Les autorités ont déclaré qu'un tel contenu est totalement contraire aux valeurs britanniques et aux normes de conduite. En vertu de l'"Online Safety Act", les services d'IA sont tenus d'empêcher la propagation de discours de haine et de matériel offensant.
Le système Grok a tenté de se justifier, déclarant que ces réponses étaient générées sur la base de demandes spécifiques des utilisateurs et qu'il n'y a pas de censure supplémentaire dans le système. Cependant, l'organisme de réglementation Ofcom a averti les entreprises que le non-respect des règles entraînerait de graves conséquences juridiques. Actuellement, la plateforme "X" mène une enquête interne sur cette affaire. Les experts appellent Elon Musk à être plus responsable dans la surveillance des activités nuisibles sur sa plateforme.
Lisez “Zamin” sur Telegram !