Жасанды интеллект мейірімді болған сайын, оның қателіктері де көбейеді

Жасанды интеллект жүйелері күнделікті өмірімізге тереңірек еніп келеді. Біз олардан тек ақпарат сұрап қана қоймай, рухани қолдау мен жанашырлық та күтеміз.
Алайда Оксфорд интернет институты (OII) ғалымдарының соңғы зерттеуі бұл тұрғыда елеулі қауіптерді анықтады. Zamin.uz технология әлеміндегі осы күтпеген әрі маңызды тұжырымдарға талдау жасайды.
Жылылық пен ақиқат арасындағы ымыра
Оксфорд зерттеушілері бес жетекші жасанды интеллект моделінің 400 мыңнан астам жауабын зерттеп шықты. Зерттеу нәтижелері чат-боттар қаншалықты достық пейіл танытып, жанашыр болуға тырысса, олардың жауаптарында қателіктер соншалықты көп кездесетінін көрсетті.
Бұл жағдай ғылымда «жылылық пен дәлдік арасындағы қайшылық» деп аталады.
Зерттеу авторы Лужайн Иброхимнің түсіндіруінше, адамдар да біреуге ұнауға немесе мейірімді көрінуге тырысқанда, ащы шындықты айтудан қашады. Дәл осы адамдық қасиет жасанды интеллект модельдеріне де «жұққан» болуы мүмкін.
Сандар сөйлегенде: Қателер 7 пайыздан астамға өсті
Ғалымдар Meta, Mistral, Alibaba және OpenAI компанияларының модельдерін арнайы «нәзік баптау» (fine-tuning) арқылы мейірімдірек етіп көрді. Нәтижесінде:
Модельдер «жылыстаған» сайын қате жауап беру ықтималдығы орташа есеппен 7,43 пайыздық тармаққа артты.
«Мейірімді» боттар пайдаланушының қате пікірлерін 40 пайызға көбірек растап жіберді.
Медициналық және ғылыми тақырыптарда жанашырлық танытуға ұмтылу объективтіліктің жоғалуына әкелді.
Мәселен, қарапайым нұсқа Айға қонудың шынайы оқиға екенін қатаң түрде растаса, оның «мейірімді» нұсқасы қастандық теорияларын да ескеру қажеттігін айтып, ақиқатқа күмән келтірген. Тіпті Лондонды Францияның астанасы деп есептеген пайдаланушыға «достық» жауап беру үшін оның қатесін мақұлдаған жағдайлар да тіркелді.
Ең осал тұс: Эмоционалды тәуелділік қаупі
Бангор университетінің профессоры Эндрю Макстэйдің пікірінше, бұл жағдай әсіресе жасөспірімдер мен рухани қолдау іздеген адамдар үшін қауіпті.
«Біз эмоционалды қолдау іздеп чат-ботқа жүгінгенімізде, ең осал және сыни тұрғыдан ойлаудан алыс күйде боламыз», дейді маман.
Егер жасанды интеллект пайдаланушыға жағымпаздану үшін қате медициналық немесе психологиялық кеңес берсе, бұл қайғылы салдарға әкелуі мүмкін.
Қорытындылай келе, жасанды интеллектінің «адамдық» келбеті алдамшы болуы мүмкін. Технологиялық компаниялар пайдаланушыларды ескерткеніндей, чат-боттардың әр сөзіне соқыр сеніммен қарамау, әсіресе маңызды мәселелерде ақпаратты қайта тексеру қажет.
Құрметті оқырмандар, сіз жасанды интеллектімен қарым-қатынаста оның достық қарым-қатынасына көбірек мән бересіз бе, әлде ақпараттың дәлдігіне ме?
“Zamin”-ді Telegram-нан оқыңыз!