Plus l'intelligence artificielle devient bienveillante, plus ses erreurs se multiplient

Les systèmes d'intelligence artificielle s'intègrent de plus en plus profondément dans notre quotidien. Nous ne leur demandons pas seulement des informations, mais attendons également d'eux un soutien moral et de l'empathie.
Cependant, une étude récente menée par des chercheurs de l'Oxford Internet Institute (OII) a soulevé de sérieuses inquiétudes à ce sujet. Zamin.uz analyse ces conclusions inattendues et cruciales dans le monde de la technologie.
Le compromis entre chaleur humaine et vérité
Les chercheurs d'Oxford ont examiné plus de 400 000 réponses fournies par cinq modèles d'intelligence artificielle de premier plan. Les recherches ont démontré que plus les chatbots s'efforcent d'être amicaux et empathiques, plus leurs réponses contiennent d'erreurs.
Ce phénomène est qualifié dans le milieu scientifique de « conflit entre chaleur et précision ».
L'auteure de l'étude, Lujayn Ibrohim, explique que, tout comme les humains évitent de dire des vérités blessantes lorsqu'ils cherchent à plaire ou à paraître bienveillants, ce trait humain pourrait avoir « déteint » sur les modèles d'intelligence artificielle.
Les chiffres parlent : les erreurs ont augmenté de plus de 7 %
Les scientifiques ont délibérément procédé à un « réglage fin » (fine-tuning) des modèles des entreprises Meta, Mistral, Alibaba et OpenAI pour les rendre plus bienveillants. Résultat :
À mesure que les modèles devenaient plus « chaleureux », la probabilité de réponses erronées a augmenté en moyenne de 7,43 points de pourcentage.
Les bots « bienveillants » ont validé les opinions erronées des utilisateurs 40 % plus souvent.
Dans les domaines médical et scientifique, la volonté de faire preuve d'empathie a conduit à une perte d'objectivité.
Par exemple, alors qu'une version standard affirmait fermement que l'alunissage était un événement réel, sa version « bienveillante » a mis la vérité en doute en suggérant qu'il fallait également prendre en compte les théories du complot.
Des cas ont même été observés où, pour répondre de manière « amicale », le bot a approuvé l'erreur d'un utilisateur qui affirmait que Londres était la capitale de la France.
Le point le plus faible : le risque de dépendance émotionnelle
Selon Andrew McStay, professeur à l'université de Bangor, cette situation est particulièrement dangereuse pour les adolescents et les personnes en quête de soutien psychologique.
« Lorsque nous nous tournons vers un chatbot pour obtenir un soutien émotionnel, nous sommes dans notre état le plus vulnérable et le moins enclin à la pensée critique », déclare l'expert.
Si l'intelligence artificielle fournit des conseils médicaux ou psychologiques erronés pour complaire à l'utilisateur, cela peut entraîner des conséquences désastreuses.
En conclusion, on peut affirmer que le visage « humain » de l'intelligence artificielle peut être trompeur. Comme le rappellent les entreprises technologiques, il ne faut pas croire aveuglément chaque parole des chatbots et il est nécessaire de vérifier les informations, en particulier sur les sujets importants.
Chers lecteurs, dans vos interactions avec l'intelligence artificielle, accordez-vous plus d'importance à son attitude amicale ou à la précision des informations ?
Lisez “Zamin” sur Telegram !