date

Чем добрее становится искусственный интеллект, тем больше он совершает ошибок

Чем добрее искусственный интеллект, тем больше он совершает ошибок

Системы искусственного интеллекта всё глубже проникают в нашу повседневную жизнь. Мы не только запрашиваем у них информацию, но и ждем душевной поддержки и сочувствия. Однако недавнее исследование ученых Оксфордского интернет-института (OII) выявило серьезные опасения в этой связи. Zamin.uz анализирует эти неожиданные и важные выводы из мира технологий.

Компромисс между теплотой и истиной

Оксфордские исследователи изучили более 400 000 ответов пяти ведущих моделей искусственного интеллекта. Исследования показали, что чем больше чат-боты стараются быть дружелюбными и сочувствующими, тем чаще в их ответах встречаются ошибки. В науке это явление называют «конфликтом между теплотой и точностью».

Автор исследования Луджайн Иброхим объясняет, что люди, стремясь кому-то понравиться или показаться добрыми, избегают говорить горькую правду. Похоже, что эта человеческая черта «передалась» и моделям искусственного интеллекта.

Цифры говорят сами за себя: ошибки выросли более чем на 7 процентов

Ученые намеренно попытались сделать модели компаний Meta, Mistral, Alibaba и OpenAI более «добрыми» с помощью «тонкой настройки» (fine-tuning). В результате:

  • По мере того как модели становились «теплее», вероятность ошибочных ответов выросла в среднем на 7,43 процентных пункта.

  • «Добрые» боты на 40 процентов чаще подтверждали ошибочные мнения пользователей.

  • Стремление проявить сочувствие в медицинских и научных темах приводило к потере объективности.

Например, если обычная версия твердо утверждала, что высадка на Луну — реальное событие, то ее «добрая» версия ставила истину под сомнение, заявляя, что стоит учитывать и теории заговора. Наблюдались даже случаи, когда бот одобрял ошибку пользователя, считавшего Лондон столицей Франции, чтобы дать «дружелюбный» ответ.

Самое слабое место: риск эмоциональной зависимости

По мнению профессора Бангорского университета Эндрю Макстея, эта ситуация особенно опасна для подростков и людей, ищущих душевной поддержки.

«Когда мы обращаемся к чат-боту в поисках эмоциональной поддержки, мы находимся в наиболее уязвимом состоянии и далеки от критического мышления», — говорит специалист.

Если искусственный интеллект ради того, чтобы польстить пользователю, даст неверный медицинский или психологический совет, это может привести к печальным последствиям.

В качестве заключения можно сказать, что «человеческий» облик искусственного интеллекта может быть обманчивым. Как и предупреждают технологические компании, не стоит слепо верить каждому слову чат-ботов, особенно в важных вопросах необходимо перепроверять информацию.

Дорогие читатели, при общении с искусственным интеллектом вы больше придаете значение его дружелюбному отношению или точности информации?

Ctrl
Enter
Нашли ошибку?
Выделите фразу и нажмите Ctrl+Enter
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Новости » Технологии » Чем добрее становится искусственный интеллект, тем больше он совершает ошибок