Жасанды интеллект әлеуметтік жағдайларды "сезбейді," адамдар басым

Жасанды интеллект (ЖИ) бүгінде бетті тану, нысандарды ажырату және мәтін жазу сияқты бірқатар тапсырмаларды орындауда жақсы нәтижелер көрсетуде. Бірақ адамдар арасындағы әлеуметтік белгілерді, әрекеттер мен ниеттерді түсінуде ол әлі де адамнан артта қалып отыр. Жаңа зерттеулер көрсеткендей, қазіргі жасанды интеллект модельдері қозғалыстағы әлеуметтік сахналарды түсіндіруде адамдарды анық көре алмайды.
Джонс Хопкинс университетінің ғалымдары жүргізген зерттеуге сәйкес, қолданыстағы ЖИ жүйелері адамдар арасындағы әлеуметтік өзара әрекеттесуді - кімнің кіммен қарым-қатынас жасайтынын, кімнің не істегісі келетінін және әрекеттердің артындағы ниеттерді толық түсіне алмады. Бұл өздігінен басқарылатын көліктер, қосалқы роботтар және шынайы өмірде адамдармен бір кеңістікте әрекет етуі керек технологиялар үшін үлкен проблема.
Зерттеудің бас авторы Лейла Исиктің айтуынша, мәселе тек ақпаратта емес, жасанды интеллекттің өзі қалай "ойлайды" деген мәселеде. "Мысалы, өздігінен басқарылатын көлік жаяу жүргіншілердің ниетін түсінуі керек: ол қай бағытта өтпекші, екі адам сөйлесіп жатыр ма немесе көшені кесіп өтуге дайындалып жатыр ма. Егер ЖИ адамдармен қарым-қатынас жасауы керек болса, ол адам әрекеттерін дұрыс тануы керек. Бұл зерттеу қазіргі жүйелердің бұған әлі де қабілетті емес екенін көрсетеді," - дейді Исик.
Тәжірибе қалай жүргізілді?
Ғалымдар қатысушыларға үш секундтық бейнелерді көрсетті. Бейнероликтерде адамдар бір-бірімен қарым-қатынаста болған, қатар жүрген немесе өз бетінше әрекет еткен. Қатысушылар бейнедегі әлеуметтік өзара әрекеттесуді бес балдық шкала бойынша бағалады.
Осыдан кейін зерттеушілер 350-ден астам жасанды интеллект модельдеріне - тіл, видео және бейне модельдеріне адамдардың мінез-құлқын және тіпті ми қызметін болжау міндетін жүктеді.
Нәтиже күткендей... адамдардың пайдасына шешілді
Қатысушылар бағалау кезінде көп жағдайда бір пікірге келді. Жасанды интеллект модельдері, олардың түрі мен оқытылған деректеріне қарамастан, мұндай бірлікті көрсете алмады. Бейнемодельдер адамдардың бейнеде не істеп жатқанын нақты көрсете алмады. Тіпті қозғалмайтын кадрларға негізделген бейнелеу модельдері де адамдардың бір-бірімен қарым-қатынаста екенін сенімді түрде анықтай алмады.
Бір қызығы, тілдік модельдер адамның мінез-құлқын болжауда, ал бейнемодельдер мидағы жүйке белсенділігін болжауда жақсы нәтиже көрсетті. Бірақ жалпы көрініс бәрібір айқын: ЖИ әлеуметтік динамиканы "сезбейді."
Статикалық әлемде туған интеллект
Ғалымдар бұл мәселенің тамырын ЖИ архитектурасының өзінен көріп отыр. Қазіргі нейрондық желілер адам миының негізінен статикалық бейнелерді өңдейтін бөлігінен шабыттандырылған. Алайда әлеуметтік сахналарды түсіну үшін мидың мүлде басқа салалары - динамика, қозғалыс және контексті қайта өңдейтін салалар іске қосылады.
"Суретті көру, нысанды және бетті тану - бұл алғашқы қадам болды. Бірақ өмір статикалық емес. Сахнада не болып жатқанын, адамдардың қалай қарайтынын түсінетін ЖИ керек. Бұл зерттеу осы жолдағы үлкен қара дақты көрсетіп отыр," - дейді зерттеу авторларының бірі Кэти Гарсия.
Бұдан шығатын қорытынды: жасанды интеллект әлі де көп нәрсені "көре тұра," түсінбей отыр. Ал адам ымнан да, қимылдан да, үнсіздіктен де мағына шығара алады. Олай болса, әзірге әлеуметтік сахналарды оқуда адам миына бәсекелес жоқ. Ал ЖИ оқушы ретінде әлі кезек күтіп тұр.
“Zamin”-ді Telegram-нан оқыңыз!