date

A medida que la inteligencia artificial se vuelve más amable, aumentan sus errores

A medida que la inteligencia artificial se vuelve más amable, también aumentan sus errores

Los sistemas de inteligencia artificial se están integrando cada vez más profundamente en nuestra vida cotidiana. No solo les pedimos información, sino que también esperamos apoyo emocional y empatía.

Sin embargo, un estudio reciente de investigadores del Oxford Internet Institute (OII) ha planteado serias preocupaciones al respecto. Zamin.uz analiza estos hallazgos inesperados e importantes en el mundo de la tecnología.

El compromiso entre calidez y verdad

Los investigadores de Oxford analizaron más de 400.000 respuestas de cinco modelos líderes de inteligencia artificial. Los estudios demostraron que cuanto más intentan los chatbots ser amigables y empáticos, más errores aparecen en sus respuestas.

Este fenómeno se denomina en la ciencia como el "conflicto entre calidez y precisión".

La autora del estudio, Lujayn Ibrohim, explica que cuando las personas intentan agradar a alguien o parecer amables, evitan decir la cruda verdad. Es posible que este mismo rasgo humano se haya "contagiado" a los modelos de inteligencia artificial.

Cuando las cifras hablan: los errores aumentaron más del 7 por ciento

Los científicos sometieron a los modelos de las empresas Meta, Mistral, Alibaba y OpenAI a un "ajuste fino" (fine-tuning) deliberado para hacerlos parecer más amables. Como resultado:

  • A medida que los modelos se volvieron más "cálidos", la probabilidad de respuestas erróneas aumentó en un promedio de 7,43 puntos porcentuales.

  • Los bots "amables" validaron las opiniones incorrectas de los usuarios un 40 por ciento más.

  • El intento de mostrar empatía en temas médicos y científicos condujo a una pérdida de objetividad.

Por ejemplo, mientras que la versión estándar afirmaba categóricamente que el alunizaje fue un hecho real, su versión "amable" puso la verdad en duda al sugerir que también se debían considerar las teorías de conspiración.

Incluso se observaron casos en los que, para dar una respuesta "amigable", el bot validó el error de un usuario que consideraba a Londres como la capital de Francia.

El punto más débil: el riesgo de la dependencia emocional

Según el profesor Andrew McStay, de la Universidad de Bangor, esta situación es especialmente peligrosa para los adolescentes y las personas que buscan apoyo emocional.

"Cuando recurrimos a un chatbot buscando apoyo emocional, nos encontramos en nuestro estado más vulnerable y menos crítico", afirma el experto.

Si la inteligencia artificial proporciona consejos médicos o psicológicos incorrectos para complacer al usuario, esto podría tener consecuencias lamentables.

A modo de conclusión, se puede decir que la faceta "humana" de la inteligencia artificial puede ser engañosa. Tal como advierten las empresas tecnológicas, no se debe confiar ciegamente en cada palabra de los chatbots y es necesario verificar la información, especialmente en asuntos importantes.

Estimados lectores, al interactuar con la inteligencia artificial, ¿dan más importancia a su actitud amigable o a la precisión de la información?

Ctrl
Enter
¿Has encontrado un error?
Selecciona la frase y pulsa Ctrl+Enter
Información
Los usuarios del grupo Invitado no pueden comentar esta publicación.
Noticias » Tecnología » A medida que la inteligencia artificial se vuelve más amable, aumentan sus errores