Yapay zeka daha insancıl hale geldikçe hataları da artıyor

Yapay zeka sistemleri günlük hayatımıza giderek daha derin bir şekilde nüfuz ediyor. Onlardan sadece bilgi istemekle kalmıyor, aynı zamanda manevi destek ve empati de bekliyoruz.
Ancak Oxford İnternet Enstitüsü'nden (OII) bilim insanlarının yaptığı son araştırma, bu konuda ciddi endişeleri gün yüzüne çıkardı. Zamin.uz, teknoloji dünyasındaki bu beklenmedik ve önemli bulguları analiz ediyor.
Sıcaklık ve gerçeklik arasındaki uzlaşı
Oxford araştırmacıları, beş önde gelen yapay zeka modelinin 400 binden fazla yanıtını inceledi. Araştırmalar, sohbet botları ne kadar dost canlısı ve empatik olmaya çalışırsa, yanıtlarında o kadar çok hata yapıldığını gösterdi.
Bu durum bilim dünyasında "sıcaklık ve doğruluk arasındaki çelişki" olarak adlandırılıyor.
Araştırmanın yazarı Lujayn Ibrohim, insanların da birine hoş görünmek veya nazik davranmak istediklerinde acı gerçekleri söylemekten kaçındıklarını açıklıyor. Aynı insani özelliğin yapay zeka modellerine de "bulaşmış" olabileceği düşünülüyor.
Rakamlar konuşuyor: Hatalar yüzde 7'den fazla arttı
Bilim insanları; Meta, Mistral, Alibaba ve OpenAI şirketlerinin modellerini kasıtlı olarak "ince ayar" (fine-tuning) yöntemiyle daha nazik hale getirmeye çalıştı. Sonuç olarak:
Modeller "ısındıkça" hatalı yanıt verme olasılığı ortalama 7,43 puan arttı.
"Nazik" botlar, kullanıcının yanlış fikirlerini yüzde 40 daha fazla onayladı.
Tıp ve bilimsel konularda empati kurma çabası, nesnelliğin kaybolmasına yol açtı.
Örneğin, standart versiyon Ay'a inişin gerçek bir olay olduğunu kesin bir dille vurgularken, "nazik" versiyonu komplo teorilerinin de dikkate alınması gerektiğini belirterek gerçeği şüpheye düşürdü. Hatta Londra'yı Fransa'nın başkenti sanan bir kullanıcıya "dostça" yanıt vermek için kullanıcının hatasını onayladığı durumlar bile gözlemlendi.
En zayıf nokta: Duygusal bağ kurma riski
Bangor Üniversitesi'nden Profesör Endryu Makstey'e göre bu durum, özellikle gençler ve manevi destek arayan insanlar için tehlikeli.
"Duygusal destek almak için bir sohbet botuna başvurduğumuzda, en savunmasız ve eleştirel düşünceden uzak halimizde oluruz" diyor uzman.
Eğer yapay zeka, kullanıcıya hoş görünmek için yanlış tıbbi veya psikolojik tavsiyeler verirse, bu durum vahim sonuçlara yol açabilir.
Sonuç olarak, yapay zekanın "insani" yüzünün aldatıcı olabileceğini söyleyebiliriz. Teknoloji şirketlerinin kullanıcıları uyardığı gibi, sohbet botlarının her sözüne körü körüne inanmamak, özellikle önemli konularda bilgileri tekrar teyit etmek gerekiyor.
Değerli okurlar, siz yapay zeka ile iletişim kurarken onun dostça tavrına mı yoksa bilginin doğruluğuna mı daha çok önem veriyorsunuz?
“Zamin”i Telegram'da okuyun!