
Жақында Дикин университетінде жүргізілген ғылыми зерттеу ChatGPT сияқты жасанды интеллектке негізделген чат-боттарды академиялық зерттеулерде қолдану туралы күрделі мәселелерді қайта көтерді. Зерттеу нәтижелері бот ұсынған мәліметтер мен әдебиеттер тізімінің көп бөлігі не дұрыс емес, не мүлдем жалған екенін көрсетті.
Мамандардың айтуынша, ChatGPT-ге психикалық денсаулыққа қатысты алты тақырып бойынша әдебиетке шолу жасау міндеті жүктелген. Тексеру барысында 176 дәйексөздің 35-і (19,9%) мүлдем жалған екені анықталды. Қалған 141 дәйексөзде (45,4%) қате бет нөмірлері, жоқ DOI нөмірлері немесе жарияланған күн қателері байқалды. Тек 77 дереккөз (43,8%) нақты және сенімді деп танылды.
Ең жаманы, бұл қателерді бірден ажырату оңай емес. Мысалы, жалған DOI сандарының 64 пайызы тақырыпқа мүлдем қатысы жоқ материалдарға, тағы 36 пайызы мүлдем жоқ беттерге бағыттаған.
Зерттеушілер ChatGPT сияқты нейрондық желілерді қолданғанда сақтықты күшейту, нақты нұсқаулықтарды әзірлеу және деректерді адам тарапынан мәжбүрлеп тексеру өте маңызды екенін айтады. Ғылыми журналдар мен оқу орындарын да осындай қателіктерден қорғау механизмдерін күшейтуге шақырды.
Сонымен қатар, Еуропалық телерадиокорпорациялар одағының (EBU) жүргізген жеке талдауында ChatGPT, Claude, Gemini және басқа да чат-боттардың жауаптарының 40 пайызына дейін ойдан шығарып, оны шынайы факт ретінде ұсынатыны айтылған.
Анықталған кейбір мысалдар:
- ChatGPT кейде "Папа Франциск тірі" деген жалған ақпарат берді;
- Microsoft Copilot Швецияның НАТО-ға мүшелігін жоққа шығарды;
- Ал Google Gemini Дональд Трамптың қайта сайлану ықтималдығына қатысты пікір білдірді - бұл АҚШ заңдарына қайшы.
Жалпы алғанда, сарапшылар бір ауыздан былай дейді: жасанды интеллектіні қолданғанда тәртіп пен зейінді күшейту, кез келген ақпаратты қайта тексеру негізгі ереже болуы керек.
“Zamin”-ді Telegram-нан оқыңыз!«Меҳмон» тобындағы келушілер бұл жарияланымға пікір қалдыра алмайды.