OpenAI va Google DeepMind kabi texnologik kompaniyalarning bir guruh olimlari va rahbarlari o‘z texnologiyalari xavfini pandemiya hamda yadro urushiga qiyosladilar va insoniyatning «yo‘q bo‘lib ketish xavfi» haqida ogohlantirdilar.
AQSHdagi sun’iy intellekt xavfsizligi markazi (Center for AI Safety) bir guruh mutaxassislar bilan birgalikda insoniyatning yo‘q bo‘lib ketishiga sabab bo‘lishi mumkin bo‘lgan sun’iy intellekt (SI) xavfidan ogohlantirdi.
«Sun’iy intellektning rivojlanishi tufayli insoniyatning yo‘q bo‘lib ketish xavfini kamaytirish pandemiya va yadro urushi kabi boshqa xavflar qatorida global ustuvor vazifaga aylanishi kerak», — deyiladi markaz veb-saytida e’lon qilingan bir jumladan iborat bayonotda.
Ochiq xat 350 dan ortiq SI rahbarlari, tadqiqotchilari va muhandislari tomonidan imzolangan. SI yetakchilari orasida OpenAI bosh direktori Sem Altman, Google DeepMind bosh direktori Demis Xassabis va Anthropic bosh direktori Dario Amodei bor.
Shuningdek, bayonot neyron tarmoqlari ustida olib borgan tadqiqoti uchun Turing mukofotiga sazovor bo‘lgan Jeffri Xinton va Yoshua Bengio tomonidan imzolangan, ular CIning «cho‘qintirgan otalari» deb ataladi.
Sun’iy intellekt xavfsizligi markazi ijrochi direktori Den Xendriks maktubning qisqaligiga izoh berar ekan, buni CI bo‘yicha ma’lum xavflar bo‘yicha kelisha olmaydigan, ammo umumiy xavotirlarni baham ko‘radigan mutaxassislarni birlashtirish uchun mo‘ljallangani bilan izohladi. «Biz fikrimizni susaytirmaslik uchun 30 ta mumkin bo‘lgan tavsiyalar ro‘yxatini nashr qilishni xohlamadik», — dedi u.
Ushbu e’lon CI xavfi haqida birinchi ogohlantirish emas. Mart oyida 1000 dan ortiq muhandis va tadqiqotchilar, jumladan Twitter, SpaceX va Tesla egasi Ilon Mask va Apple asoschilaridan biri Stiv Voznyak, mustahkam xavfsizlik protokollari ishlab chiqilgunga qadar ushbu sohani olti oyga to‘xtatishga chaqirgan yana bir ochiq xatni imzolagandilar.
Maktub mualliflari «borgan sari kuchli raqamli intellektlarni rivojlantirish bo‘yicha nazoratsiz poyga»dan xavotir bildirishgan va ularning nuqtai nazari bo‘yicha sun’iy intellekt rivojlanishi bilan birga bo‘lishi mumkin bo‘lgan potensial xavflarni tasvirlab berishdi. Ular orasida tashviqot va dezinformatsiyaning tarqalishi, ish joylarini qisqartirish va sivilizatsiya ustidan nazoratni yo‘qotish bor.
Bir qator mamlakatlarda SI rivojlanishini nazorat qila oladigan qonunchilikni ishlab chiqishga urinishlar allaqachon boshlangan. Yevropa Ittifoqi yil oxirigacha SIni xavfning to‘rt toifasiga ajratuvchi qonun qabul qilishga umid qilmoqda. Xitoyda SIni tartibga soluvchi qonun loyihasi ham chop etildi. U siyosiy jihatdan nozik kontentni cheklashni taklif qiladi va sun’iy intellektga asoslangan texnologiyalarni chiqarishdan oldin ishlab chiquvchilardan ruxsat olishlarini talab qiladi.
“Zamin” yangiliklarini “Facebook”da kuzatib boring
Ctrl
Enter
Xato topdIngizmi?
Iborani ajratib Ctrl+Enter tugmasini bosingMavzuga oid yangiliklar
Shvetsiya Eronni Qur’on yoqib yuborilgani uchun qasos olganlikda ayblamoqda
Tramp Zelenskiyning AQSHga tashrifi chog‘ida u bilan uchrashishdan bosh tortdi
Oyatulloh Xomanaiy: “Yo‘qotishlarga qaramay, “Hizbulloh” kuchli bo‘lib qoladi”
Lionel Messi o‘z prodyuserlik kompaniyasiga asos soldi
Xitoy mamlakatlarni jungli qonunidan voz kechishga chaqirdi
O‘zbekiston Turkmaniston va Turkiya bilan mudofaa sohasida hamkorlik qiladi
Kuniga nechta olma yeyish mumkin? Ommabop mevaning zararli xususiyatlari
Hindiston BMTni isloh qilishga chaqirdi