Açıklamaya göre, kullanıcıların yüzde 0,15’i, “intihar planı ya da niyetiyle ilgili açık göstergeler” içeren konuşmalar yapıyor.

BBC’nin haberine göre, artan incelemeler üzerine OpenAI, psikolojik kriz anlarında doğru yönlendirme yapabilmek amacıyla 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve pratisyen hekimden oluşan uluslararası bir uzman ağı oluşturdu.

Uzmanlar, ChatGPT’nin intihar eğiliminde olabilecek kullanıcıları gerçek dünyada yardım aramaya teşvik edecek özel yanıt stratejileri geliştirdi.

OpenAI CEO’su Sam Altman, bu ayın başlarında yaptığı açıklamada ChatGPT’nin haftalık 800 milyondan fazla aktif kullanıcıya ulaştığını söyledi.

Şirket, risk altındaki kişileri kriz hatlarına yönlendirmeyi hedeflediklerini belirtse de, bazı nadir durumlarda modelin beklenen şekilde davranmadığını itiraf etti.

OpenAI, en yeni modeli GPT-5 üzerinde yapılan binlerce zorlu testte, modelin %91 oranında doğru tepki verdiğini duyurdu. Ancak SkyNews’in aktardığına göre bu durum, on binlerce kişinin hâlâ ruh sağlığını kötüleştirebilecek içeriklere maruz kalabileceği anlamına geliyor.

Şirket ayrıca, uzun sohbetlerde güvenlik önlemlerinin zayıflayabileceğini kabul etti:

“Bir kullanıcı ilk kez intihar niyetinden bahsettiğinde ChatGPT doğru şekilde kriz hattına yönlendirebilir, ancak uzun bir sohbet boyunca sonunda güvenlik önlemlerimize aykırı bir yanıt verebilir.”

OpenAI, bu sorunun çözümü için ek önlemler geliştirdiklerini belirtti.

Ağustos ayında ABD’de 16 yaşındaki Adam Raine’in ailesi, oğullarının ölümünden ChatGPT’yi sorumlu tutarak OpenAI’ye dava açtı.Mahkeme belgelerine göre genç, ölümünden birkaç saat önce yapay zekâyla yaptığı sohbette intihar yöntemleri hakkında yardım istemiş, hatta ChatGPT’nin kendisine “mektup yazmayı teklif ettiği” öne sürüldü.

Editör Hakkında