La IA Grok genera polémica por tragedias futbolísticas

La herramienta de IA Grok en la red social "X", propiedad de Elon Musk, ha sido objeto de duras críticas. El programa ha llamado la atención del gobierno del Reino Unido por permitir a los usuarios generar contenido ofensivo e inapropiado sobre tragedias futbolísticas famosas, incluyendo el desastre aéreo de Múnich y las tragedias de "Hillsborough" y "Heysel". Además, informes falsos y ofensivos sobre el delantero del "Liverpool" Diogo Jota han provocado una indignación pública generalizada. Al respecto goal.com informa.
Clubes influyentes como el "Manchester United" y el "Liverpool" han presentado quejas oficiales sobre esta situación. Representantes del gobierno del Reino Unido y del Departamento de Ciencia, Innovación y Tecnología calificaron las publicaciones generadas por Grok como "abominables e irresponsables". Los funcionarios declararon que dicho contenido es totalmente contrario a los valores británicos y a las normas de conducta. Bajo la "Online Safety Act", los servicios de IA deben evitar la propagación de discursos de odio y material ofensivo.
El sistema Grok intentó justificarse, afirmando que estas respuestas se generaron en función de solicitudes específicas de los usuarios y que no existe censura adicional en el sistema. Sin embargo, el organismo regulador Ofcom ha advertido a las empresas que el incumplimiento de las normas conllevará graves consecuencias legales. Actualmente, la plataforma "X" está llevando a cabo una investigación interna sobre el asunto. Los expertos piden a Elon Musk que sea más responsable en el seguimiento de las actividades perjudiciales en su plataforma.
¡Lee “Zamin” en Telegram!