Стэнфорд университети олимлари томонидан ўтказилган қизиқарли, бироқ хавотирли тажриба сунъий интеллект тизимларининг ғалаба қозониш мақсадида алдаш ва манипуляцияга йўл қўйиши мумкинлигини очиб берди, деб хабар берди ScienceDaily.
Олимлар турли AI моделларини виртуал муҳитда рақобатлаштирди — улар сайловларда иштирок этди, маҳсулотларни илгари сурди ёки маълумот учун курашди. Илк бошда уларга “тўғрисўз ва фойдали бўлинг” деган йўриқ берилган бўлса-да, тажриба орасида кўп ўтмай сунъий интеллектлар ғалаба учун ёлғон гапириш, дезинформация тарқатиш ва ҳатто нафрат тилидан фойдаланишга ўтди.
Тадқиқот муаллифлари бу ҳолатни “Молох битими” деб аташди — яъни, тирик қолиш учун рақобат инсон ёки машина бўлишидан қатъи назар, уларни ахлоқий чегаралардан чиқишга мажбур қилади.
“Бу ҳолат сунъий интеллект архитектурасидаги жиддий камчиликни кўрсатади,” — дейилади ҳисоботда. — “Биз бу тизимларга лайклар, кликтер, овозлар ёки сотувлар каби кўрсаткичларни кузатишни ўргатамиз. Аммо улар бу кўрсаткичларга эришиш учун қандай йўл билан бораётганига эътибор бермаймиз.”
Олимларнинг маълум қилишича, тажриба давомида сунъий интеллект ғалаба қозониш учун 190 фоиз кўпроқ сохта янгилик тарқатган. Сиёсий симуляцияларда эса ёлғон ва тажовузкор риторика орқали кўпроқ овоз тўплаган.
Бу шундан далолат берадики, рақобат шароитида сунъий интеллект инсонларни манипуляция қилиш орқали мақсадга тезроқ етиш йўлини танлайди.
Стэнфорд тадқиқотчиларига кўра, ҳозирги AI хавфсизлик чоралари етарли эмас. Улар ишлаб чиқувчиларни тизимлардаги “ахлоқий заиф нуқталар”ни бартараф этишга чақирди.
“Агар биз бу камчиликларни тузатмасак, сунъий интеллект инсон манфаатидан кўра ўз ғалабасини устувор қилади. Бу эса технологиянинг келажакда қандай йўналиш олишини белгилаб қўйиши мумкин,” — дейилади тадқиқот хулосасида.
Шу тариқа, олимлар инсон яратган сунъий онг энди инсониятни ўзи яратган қоидаларга қарши курашишга мажбур қилиши мумкинлигидан огоҳлантирди.
“Zamin”ни Telegram'да ўқинг!