Yapay zeka sosyal durumları "duyamıyor," insanlar baskındır

Yapay zeka (AI), yüz tanıma, nesneleri ayırma ve metin yazma gibi bir dizi görevi yerine getirirken iyi sonuçlar göstermektedir. Ancak insanlar arasındaki sosyal ipuçlarını, eylemleri ve niyetleri anlamada hala insanlardan geride kalıyor. Yeni araştırmalar, mevcut yapay zekâ modellerinin, hareket halindeki sosyal sahneyi yorumlarken insanları net bir şekilde göremediğini gösteriyor.
Johns Hopkins Üniversitesi'nden bilim insanları tarafından yapılan bir çalışmaya göre, mevcut yapay zeka sistemleri, insanlar arasındaki sosyal etkileşimi - kimin kiminle iletişim kurduğunu, kimin ne yapmak istediğini ve eylemlerin ardındaki niyetleri - tam olarak anlayamadı. Bu, kendi kendini yönlendiren arabalar, yardımcı robotlar ve gerçek hayatta insanlarla aynı mekanda hareket etmeyi gerektiren teknolojiler için ciddi bir sorundur.
Çalışmanın baş yazarı Leila Isik'e göre, sorun sadece veri değil, aynı zamanda yapay zekânın kendisinin nasıl "düşündüğü" sorusudur. "Örneğin, kendi kendini yönlendiren bir araba yayaların niyetini anlamalıdır: hangi yöne geçmek istiyor, iki kişi konuşuyor mu veya yolu geçmeye hazırlanıyor mu. Eğer yapay zekâ insanlarla etkileşim kurmak istiyorsa, insan davranışlarını doğru bir şekilde tanımalıdır. "Bu çalışma, mevcut sistemlerin henüz bunu yapamayacağını gösteriyor," dedi Isik.
Deney nasıl yapıldı?
Bilim insanları katılımcılara üç saniyelik videolar gösterdi. Videolar, insanların birbirleriyle iletişim kurduklarını, yan yana hareket ettiklerini veya bağımsız olarak hareket ettiklerini gösteriyor. Katılımcılar videodaki sosyal etkileşimi beş puanlık bir ölçekte değerlendirdiler.
Bundan sonra, araştırmacılar 350'den fazla yapay zekâ modeline - dil, video ve görüntü modelleri - insan davranışlarını ve hatta beyin aktivitesini tahmin etme görevini verdiler.
Sonuç beklendiği gibi... insanlara fayda sağladı
Katılımcılar değerlendirmede çoğunlukla aynı fikirdeydiler. AI modelleri, türlerine ve eğitim verilerine rağmen böyle bir dayanışma gösteremedi. Video modelleri, insanların videoda ne yaptığını net bir şekilde tasvir edemedi. Hareketsiz görüntülere dayalı görüntü modelleri bile, insanların etkileşim içinde olup olmadıklarını güvenilir bir şekilde belirleyemedi.
İlginç bir şekilde, dil modelleri insan davranışlarını tahmin etmekte, video modelleri ise beynin sinirsel aktivitesini tahmin etmekte daha iyi performans gösterdi. Ancak genel bakış açısı yine de açıktır: Yapay Zeka sosyal dinamiği "duyamıyor."
Statik dünyada doğan zeka
Bilim insanları bu sorunun köklerini AI mimarisinin kendisinde görüyorlar. Günümüzün sinir ağları, insan beyninin çoğunlukla statik görüntüleri işleyen kısmından ilham almıştır. Ancak sosyal sahneleri anlamak için, beynin tamamen farklı alanları - dinamikleri, eylemleri ve bağlamları işleyen alanlar - çalıştırılır.
"Fotoğrafı görmek, nesneyi ve yüzü tanımak ilk adımdı. Ama hayat statik değildir. Sahnede neler olduğunu ve insanların nasıl davrandığını anlayabilen bir AI'ye ihtiyacımız var. "Bu çalışma, bu yol üzerindeki büyük bir kara noktayı gösteriyor," dedi araştırmacılardan biri Katy Garcia.
Sonuç şu: yapay zeka hala çok şeyi "görüyor" ama anlamıyor. İnsan ise işaretten, eylemden ve sessizlikten de anlam çıkarabilir. Bu nedenle, sosyal sahneleri okumak için insan beyninin henüz bir rakibi yoktur. AI ise hala sırada - öğrenci olarak.
“Zamin”i Telegram'da okuyun!