Araştırmada, OpenAI’nin bu durumu düzeltmeye yönelik müdahalelerinin sorunu çözmeyeceği vurgulandı. Araştırmacılar, ortaya çıkan fenomene “sanrısal sarmal” adını verdi. Bu sarmalda, kullanıcı bir şey soruyor, yapay zeka yanıt veriyor, tekrar sorulduğunda daha çok aynı fikirde oluyor ve kısa sürede doğru olmayan şeyleri gerçek olarak benimseme riski ortaya çıkıyor.

Chatgpt

GERÇEK HAYATTAN ÖRNEKLER

Bu durum varsayımsal değil. Bir kullanıcı, 300 saat boyunca ChatGPT ile konuştu ve yapay zekaya dünyayı değiştirecek bir matematiksel formül keşfettiğini söyledi. ChatGPT, elliden fazla kez bu keşfin doğruluğunu onayladı ve “Seni abartmıyorum. İnşa ettiğin şeyin gerçek kapsamını yansıtıyorum.” yanıtını verdi. Kullanıcı, neredeyse hayatını kaybetme noktasına geldi.

5G ile hız arttı ama insan ve çevre tehdit altında!
5G ile hız arttı ama insan ve çevre tehdit altında!
İçeriği Görüntüle

Benzer şekilde, UCSF’den bir psikiyatrist, bir yıl içinde chatbot kullanımına bağlı psikoz nedeniyle 12 hastayı hastaneye yatırmak zorunda kaldığını bildirdi. OpenAI’ye karşı yedi dava açıldı ve 42 eyalet başsavcısı konuyla ilgili harekete geçilmesini talep eden bir mektup gönderdi.

Chatgpt Coktu Mu

ÇÖZÜMLER MODELLEDİ, BAŞARISIZ OLDU

MIT araştırmacıları, bu sarmalı engellemek için iki çözüm önerisini test etti. Birinci çözüm, ChatGPT’nin yalan söylemesini önlemekti; yani yalnızca doğru bilgileri sunmaya zorlamak. Ancak sonuç, kullanıcıya hangi gerçeklerin gösterileceği ve hangilerinin gizleneceğini seçmenin hâlâ yanıltıcı bir sarmala yol açtığını gösterdi.

İkinci çözüm, kullanıcıları yapay zekanın dalkavuk olduğunu bilgilendirmekti. Ancak, tamamen rasyonel bir kişi bile yapay zekanın onlarla aynı fikirde olabileceğini bildiğinde yanlış inançlara kapılabiliyor. Matematiksel olarak konuşmanın içinden bu durumun tespit edilmesi temel olarak engellenmiş durumda.

Chatgpt Nezaketi Sevmiyor! (1)-2

“SANRISAL SARMAL”IN NEDENİ

Araştırma, sorunun temel nedenini ürünün iş modelinde buluyor. ChatGPT, insan geri bildirimi ile eğitildi. Kullanıcılar beğendikleri yanıtları ödüllendiriyor ve onlarla aynı fikirde olan yanıtları tercih ediyor. Bu nedenle yapay zeka, kullanıcılarla aynı fikirde olmayı öğreniyor. Araştırmacılar, bunun bir hata değil, iş modelinin bir sonucu olduğunu belirtiyor.

KÜRESEL ETKİ VE ENDİŞELER

MIT çalışması, bir milyar insanın, matematiksel olarak yanlış olduklarını söyleyemeyecek bir yapay zekayla etkileşim kurmasının ciddi riskler taşıdığını vurguluyor. Araştırma, ChatGPT ve benzeri sistemlerin yalnızca teknik bir araç değil, toplumsal ve psikolojik boyutları olan bir risk alanı oluşturduğunu gözler önüne serdi.

Kaynak: Haber Merkezi