OpenAI CEO'su Sam Altman'a göre, yapay zekayla yapılan görüşmeler doktor, avukat veya terapistlerle yapılan görüşmelere tanınan hukuki gizlilik korumasına sahip değil. Giderek daha fazla insan psikolojik destek ve kişisel tavsiye almak için ChatGPT'ye başvuruyor, ancak bu tür yazışmalarda yasal gerekçe ile mahkemeye veya yetkililere açıklanma riski bulunuyor.
Altman, tıp veya hukuk alanlarındaki profesyonellerin gizlilik yasalarına bağlı olduğunu, ancak yapay zeka platformlarının böyle bir zorunluluğu olmadığını belirtti. Bu durumu ciddiye alıyor ve insanlarla yapay zeka arasındaki görüşmelerin de hukuki koruma altına alınması gerektiğini söylüyor.
Bir kullanıcı, ChatGPT ile kişisel sorunlarını paylaşırsa ve sonrasında hukuki bir süreç başlarsa, OpenAI mahkeme kararı ile bu bilgileri sunmak zorunda kalabilir. Altman, bu durumu etik bulmadığını ve insanların yapay zekaya kişisel verilerini güvenle açabilmeleri gerektiğini vurguladı.
Ayrıca, WhatsApp veya Signal gibi şifrelenmiş mesajlaşma uygulamalarının aksine, OpenAI sohbetlere erişebilir ve bu verileri modeli geliştirmek ve kötüye kullanımı tespit etmek için kullanabilir. Bu da veri güvenliği konusunda soru işaretleri oluşturuyor.
OpenAI'nin mevcut politikasına göre, ChatGPT sohbetleri 30 gün içinde siliniyor. Ancak güvenlik veya hukuki bir zorunluluk durumunda bu süre uzayabilir ve veriler saklanabilir.
Uzmanlar, yapay zeka tabanlı hizmetlerin yaygınlaşmasıyla birlikte, kişisel verilerin korunmasına yönelik uluslararası hukuki düzenlemelere duyulan ihtiyacın artığına dikkat çekiyor.
Zamin.uz editör ekibi teknoloji ve güvenlik alanındaki en önemli gelişmeleri aktif olarak takip ediyor ve sizi bilgilendirmeye devam ediyor.
Telegram’da «Zamin»i takip edin!