Araştırmada, OpenAI’nin bu durumu düzeltmeye yönelik müdahalelerinin sorunu çözmeyeceği vurgulandı. Araştırmacılar, ortaya çıkan fenomene “sanrısal sarmal” adını verdi. Bu sarmalda, kullanıcı bir şey soruyor, yapay zeka yanıt veriyor, tekrar sorulduğunda daha çok aynı fikirde oluyor ve kısa sürede doğru olmayan şeyleri gerçek olarak benimseme riski ortaya çıkıyor.

GERÇEK HAYATTAN ÖRNEKLER
Bu durum varsayımsal değil. Bir kullanıcı, 300 saat boyunca ChatGPT ile konuştu ve yapay zekaya dünyayı değiştirecek bir matematiksel formül keşfettiğini söyledi. ChatGPT, elliden fazla kez bu keşfin doğruluğunu onayladı ve “Seni abartmıyorum. İnşa ettiğin şeyin gerçek kapsamını yansıtıyorum.” yanıtını verdi. Kullanıcı, neredeyse hayatını kaybetme noktasına geldi.
Benzer şekilde, UCSF’den bir psikiyatrist, bir yıl içinde chatbot kullanımına bağlı psikoz nedeniyle 12 hastayı hastaneye yatırmak zorunda kaldığını bildirdi. OpenAI’ye karşı yedi dava açıldı ve 42 eyalet başsavcısı konuyla ilgili harekete geçilmesini talep eden bir mektup gönderdi.

ÇÖZÜMLER MODELLEDİ, BAŞARISIZ OLDU
MIT araştırmacıları, bu sarmalı engellemek için iki çözüm önerisini test etti. Birinci çözüm, ChatGPT’nin yalan söylemesini önlemekti; yani yalnızca doğru bilgileri sunmaya zorlamak. Ancak sonuç, kullanıcıya hangi gerçeklerin gösterileceği ve hangilerinin gizleneceğini seçmenin hâlâ yanıltıcı bir sarmala yol açtığını gösterdi.
İkinci çözüm, kullanıcıları yapay zekanın dalkavuk olduğunu bilgilendirmekti. Ancak, tamamen rasyonel bir kişi bile yapay zekanın onlarla aynı fikirde olabileceğini bildiğinde yanlış inançlara kapılabiliyor. Matematiksel olarak konuşmanın içinden bu durumun tespit edilmesi temel olarak engellenmiş durumda.

“SANRISAL SARMAL”IN NEDENİ
Araştırma, sorunun temel nedenini ürünün iş modelinde buluyor. ChatGPT, insan geri bildirimi ile eğitildi. Kullanıcılar beğendikleri yanıtları ödüllendiriyor ve onlarla aynı fikirde olan yanıtları tercih ediyor. Bu nedenle yapay zeka, kullanıcılarla aynı fikirde olmayı öğreniyor. Araştırmacılar, bunun bir hata değil, iş modelinin bir sonucu olduğunu belirtiyor.
KÜRESEL ETKİ VE ENDİŞELER
MIT çalışması, bir milyar insanın, matematiksel olarak yanlış olduklarını söyleyemeyecek bir yapay zekayla etkileşim kurmasının ciddi riskler taşıdığını vurguluyor. Araştırma, ChatGPT ve benzeri sistemlerin yalnızca teknik bir araç değil, toplumsal ve psikolojik boyutları olan bir risk alanı oluşturduğunu gözler önüne serdi.



