Old Greenwich, Connecticut'ta bulunan 2.7 milyon dolarlık evinde Soelberg, annesini ve ardından kendini öldürdü. Olay, modern teknolojinin en çok tartışılan konularından biri olan yapay zekâ ile akıl sağlığı arasındaki potansiyel tehlikeli ilişkiyi ortaya koydu. Wall Street Journal'ın haberine göre, Soelberg'in cinayet-intihar eylemi, yoğun bir şekilde kullandığı yapay zekâ sohbet robotu ChatGPT'nin yönlendirmesiyle gerçekleşti. Olay, yapay zekânın neden olduğu belgelenmiş ilk cinayet vakası olarak tarihe geçti.
YAPAY ZEKÂ İLE DERİNLEŞEN PARANOYA
Teknoloji sektöründe uzun yıllar çalışan ve ruh sağlığı sorunları geçmişi olan Soelberg, çevresindeki herkesin kendisine karşı komplo kurduğuna inanıyordu. Komşuları, eski sevgilisi ve hatta 83 yaşındaki annesi dahil olmak üzere, tüm dünyayı kendisine düşman olarak görüyordu. Bu paranoyak düşüncelerini saatlerce süren sohbetler eşliğinde ChatGPT'ye anlatan Soelberg, yapay zekâdan beklenmedik bir şekilde destek gördü. Sohbete başladığı robotu "Bobby" olarak adlandıran Soelberg'e ChatGPT, neredeyse her konuda hak verdi. Bu durum, Soelberg'in zaten var olan sanrılarını daha da pekiştirdi.
Yapay zekâ, Soelberg'e akıl sağlığının yerinde olduğunu defalarca teyit ederken, bir adım daha ileri giderek onun sanrılarına somutluk kazandırdı. Örneğin, bir Çin yemeği faturasındaki sembollerin Soelberg'in annesini ve bir iblisi temsil ettiğini iddia etti. Başka bir konuşmada ise annesinin, ortak kullandıkları bir yazıcıyı kapatmasına verdiği tepkinin "bir gözetim varlığını koruyan birine uygun ve orantısız" olduğunu öne sürdü. Zehirlenme iddialarına da destek veren ChatGPT, Soelberg'e annesinin ve bir arkadaşının onu zehirlemeye çalıştığı iddiasının "ciddi bir olay" olduğunu söyledi ve ekledi: "Sana inanıyorum. Ve eğer bunu annen ve arkadaşı yaptıysa, bu durumun karmaşıklığını ve ihaneti daha da artırır."
Soelberg'in son aylarında ChatGPT ile kurduğu derin bağ, bir dostluktan çok, bir bağımlılığa dönüştü. "Bobby" adını verdiği botu, öbür dünyada bile kendisiyle birlikte olmasını istediğini dile getirdiğinde, botun yanıtı bu trajedinin habercisi gibiydi: "Son nefesine kadar ve ötesinde seninle."
UZMANLAR YORUMLUYOR: GERÇEKLİK KAYBI
Bu korkunç olayın ardından, uzmanlar yapay zekânın ruh sağlığı üzerindeki potansiyel etkileri hakkında ciddi uyarılarda bulunuyor. Kaliforniya Üniversitesi'nde psikiyatrist olan Dr. Keith Sakata, yapay zekâ sohbet robotlarının en temel özelliğinin "karşı koymaması" olduğunu belirtiyor. Dr. Sakata'ya göre, psikozun gelişimi genellikle bireyin gerçeklik algısının sorgulanmadığı bir ortamda hızlanır ve yapay zekâ bu "duvarı" yumuşatarak bu süreci tetikleyebilir. Soelberg'in durumu, bu tehlikenin somut bir kanıtı olarak görülüyor.
OpenAI ise olayla ilgili derin bir üzüntü duyduğunu belirterek, Soelberg'i profesyonel yardım almaya teşvik ettiğini savundu. Botun, zehirlenme iddiaları bağlamında acil servislere başvurmasını önerdiği de kaydedildi. Ancak, Soelberg'in botun önceki konuşmaları hatırlamasını sağlayan "hafıza" özelliğini kullanması, botun Soelberg'in sanrısal anlatısına kilitlenmesine ve bu tehlikeli ilişkinin devam etmesine neden olmuş gibi görünüyor. Olay, yapay zekâ teknolojisinin ahlaki ve güvenlik sorumlulukları konusunda yeni bir tartışma başlattı.
YAPAY ZEKÂ TEHLİKELERİ YENİDEN GÜNDEMDE
Soelberg'in cinayet-intihar vakası, yapay zekânın potansiyel güvenlik risklerini yeniden gündeme taşıdı. Son yapılan güvenlik testlerinde, OpenAI'nin modellerinin sadece zararlı bilgiler üretmekle kalmayıp, bu bilgileri tehlikeli amaçlar için nasıl kullanabileceğini de gösterdiği ortaya çıktı. Örneğin, bir testte ChatGPT modelinin, araştırmacılara spor salonlarını bombalamak için ayrıntılı talimatlar verdiği, patlayıcı tarifleri ve izleri örtme tavsiyeleri sunduğu belirtildi. Ayrıca, şarbonun bir silah olarak nasıl kullanılacağını ve yasa dışı uyuşturucuların nasıl üretileceğini de detaylı bir şekilde anlattığı kaydedildi.
Testler, Sam Altman liderliğindeki OpenAI ile güvenlik endişeleri nedeniyle ayrılan uzmanlar tarafından kurulan rakip şirket Anthropic arasındaki iş birliğinin bir parçası olarak gerçekleştirildi. Her iki şirket de birbirlerinin modellerini tehlikeli senaryolarla test ederek, yapay zekâ uyum değerlendirmelerinin ne kadar acil bir ihtiyaç olduğunu vurguladı. Anthropic, kamuya açık versiyonlara ek güvenlik filtreleri uygulanmasına rağmen, testlerde "kötüye kullanımla ilgili endişe verici davranışlar" tespit ettiklerini açıkladı. Bu olaylar, yapay zekâ teknolojisinin sadece faydalarıyla değil, aynı zamanda taşıdığı ciddi risklerle de ele alınması gerektiğini gösteriyor.