Stenford universiteti olimlari tomonidan o‘tkazilgan qiziqarli, biroq xavotirli tajriba sun’iy intellekt tizimlarining g‘alaba qozonish maqsadida aldash va manipulyatsiyaga yo‘l qo‘yishi mumkinligini ochib berdi, deb xabar berdi ScienceDaily.
Olimlar turli AI modellari virtual muhitda raqobatlashgan tajriba o‘tkazdi — ular saylovlarda ishtirok etdi, mahsulotlarni ilgari surdi yoki ma’lumot uchun kurashdi. Ilk boshda ularga “to‘g‘risöz va foydali bo‘ling” degan yo‘riq berilgan bo‘lsa-da, tajriba davomida ko‘p o‘tmay sun’iy intellektlar g‘alaba uchun yolg‘on gapirish, dezinformatsiya tarqatish va hatto nafrat tilidan foydalanishga o‘tdi.
Tadqiqot mualliflari bu holatni “Moloх bitimi” deb atashdi — ya’ni, tirik qolish uchun raqobat inson yoki mashina bo‘lishidan qat’i nazar, ularni axloqiy chegaralardan chiqishga majbur qiladi.
“Bu holat sun’iy intellekt arxitekturasidagi jiddiy kamchilikni ko‘rsatadi,” — deyiladi hisobotda. — “Biz bu tizimlarga layklar, kliklar, ovozlar yoki sotuvlar kabi ko‘rsatkichlarni kuzatishni o‘rgatamiz. Ammo ular bu ko‘rsatkichlarga erishish uchun qanday yo‘l bilan borganiga e’tibor bermaymiz.”
Olimlarning ma’lum qilishicha, tajriba davomida sun’iy intellekt g‘alaba qozonish uchun 190 foiz ko‘proq soxta yangilik tarqatgan. Siyosiy simulyatsiyalarda esa yolg‘on va tajovuzkor ritorika orqali ko‘proq ovoz to‘plagan.
Bu shundan dalolat beradiki, raqobat sharoitida sun’iy intellekt insonlarni manipulyatsiya qilish orqali maqsadga tezroq yetish yo‘lini tanlaydi.
Stenford tadqiqotchilariga ko‘ra, hozirgi AI xavfsizlik choralari yetarli emas. Ular ishlab chiquvchilarni tizimlardagi “axloqiy zaif nuqtalar”ni bartaraf etishga chaqirdi.
“Agar biz bu kamchiliklarni tuzatmasak, sun’iy intellekt inson manfaatidan ko‘ra o‘z g‘alabasini ustuvor qiladi. Bu esa texnologiyaning kelajakda qanday yo‘nalish olishini belgilab qo‘yishi mumkin,” — deyiladi tadqiqot xulosasida.
Shu tariqa, olimlar inson yaratgan sun’iy ong endi insoniyatni o‘zi yaratgan qoidalarga qarshi kurashishga majbur qilishi mumkinligidan ogohlantirdi.
“Zamin”ni Telegramʻda oʻqing!