
Недавнее исследование, проведенное в Университете Дикина, вновь подняло серьезные вопросы о применении чат-ботов на основе искусственного интеллекта, таких как ChatGPT, в академических исследованиях. Согласно результатам исследования, большая часть информации и списка литературы, предоставленного ботом, оказалась либо неверной, либо полностью вымышленной.
По словам экспертов, ChatGPT было поручено подготовить обзоры литературы по шести темам, связанным с психическим здоровьем. В ходе проверки выяснилось, что 35 (19,9%) из 176 цитат были совершенно ложными. Остальные 141 цитата (45,4%) содержат неверные номера страниц, отсутствующие цифры DOI или ошибки в дате публикации. Только 77 источников (43,8%) признаны точными и достоверными.
Хуже всего то, что эти ошибки нелегко распознать сразу. Например, 64 процента ложных цифр DOI привели к материалам, не имеющим никакого отношения к теме, а еще 36 процентов привели к страницам, которых вообще не было.
Исследователи подчеркивают, что при использовании нейронных сетей, таких как ChatGPT, крайне важно повысить осторожность, разработать четкие инструкции и обеспечить обязательную проверку данных человеком. Научные журналы и учебные заведения также призвали усилить механизмы защиты от подобных ошибок.
Кроме того, в отдельном анализе, проведенном Европейским союзом телерадиокорпораций (EBU), было отмечено, что ChatGPT, Claude, Gemini и другие чат-боты выдумывают до 40% ответов и представляют их как реальные факты.
Некоторые выявленные примеры:
- ChatGPT иногда давал ложную информацию о том, что "Папа Франциск жив";
- Microsoft Copilot отрицает членство Швеции в НАТО;
- Google Gemini прокомментировал возможность переизбрания Дональда Трампа - это противоречит законодательству США.
В целом эксперты единодушно говорят: при использовании искусственного интеллекта основным правилом должно быть усиление дисциплины и внимания, повторная проверка любой информации.
Читайте «Zamin» в Telegram!Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.