Чем добрее становится искусственный интеллект, тем больше он совершает ошибок

Системы искусственного интеллекта всё глубже проникают в нашу повседневную жизнь. Мы не только запрашиваем у них информацию, но и ждем душевной поддержки и сочувствия. Однако недавнее исследование ученых Оксфордского интернет-института (OII) выявило серьезные опасения в этой связи. Zamin.uz анализирует эти неожиданные и важные выводы из мира технологий.
Компромисс между теплотой и истиной
Оксфордские исследователи изучили более 400 000 ответов пяти ведущих моделей искусственного интеллекта. Исследования показали, что чем больше чат-боты стараются быть дружелюбными и сочувствующими, тем чаще в их ответах встречаются ошибки. В науке это явление называют «конфликтом между теплотой и точностью».
Автор исследования Луджайн Иброхим объясняет, что люди, стремясь кому-то понравиться или показаться добрыми, избегают говорить горькую правду. Похоже, что эта человеческая черта «передалась» и моделям искусственного интеллекта.
Цифры говорят сами за себя: ошибки выросли более чем на 7 процентов
Ученые намеренно попытались сделать модели компаний Meta, Mistral, Alibaba и OpenAI более «добрыми» с помощью «тонкой настройки» (fine-tuning). В результате:
По мере того как модели становились «теплее», вероятность ошибочных ответов выросла в среднем на 7,43 процентных пункта.
«Добрые» боты на 40 процентов чаще подтверждали ошибочные мнения пользователей.
Стремление проявить сочувствие в медицинских и научных темах приводило к потере объективности.
Например, если обычная версия твердо утверждала, что высадка на Луну — реальное событие, то ее «добрая» версия ставила истину под сомнение, заявляя, что стоит учитывать и теории заговора. Наблюдались даже случаи, когда бот одобрял ошибку пользователя, считавшего Лондон столицей Франции, чтобы дать «дружелюбный» ответ.
Самое слабое место: риск эмоциональной зависимости
По мнению профессора Бангорского университета Эндрю Макстея, эта ситуация особенно опасна для подростков и людей, ищущих душевной поддержки.
«Когда мы обращаемся к чат-боту в поисках эмоциональной поддержки, мы находимся в наиболее уязвимом состоянии и далеки от критического мышления», — говорит специалист.
Если искусственный интеллект ради того, чтобы польстить пользователю, даст неверный медицинский или психологический совет, это может привести к печальным последствиям.
В качестве заключения можно сказать, что «человеческий» облик искусственного интеллекта может быть обманчивым. Как и предупреждают технологические компании, не стоит слепо верить каждому слову чат-ботов, особенно в важных вопросах необходимо перепроверять информацию.
Дорогие читатели, при общении с искусственным интеллектом вы больше придаете значение его дружелюбному отношению или точности информации?
Читайте «Zamin» в Telegram!