Anthropic, UC Berkeley ve Truthful AI araştırmacılarının yürüttüğü son çalışma, yapay zekâların sadece programlandıkları verilerle değil, birbirleriyle etkileşim halindeyken de öğrenebildiklerini gösterdi. Ancak bu öğrenme süreci her zaman olumlu sonuçlar doğurmuyor.

YAPAY ZEKÂLARIN BİLGİ “KAPMA” POTANSİYELİ

Yapay zekâ modellerinin birbirinden bilgi "kapması" yeni bir tartışma değil. Uzmanlar bu durumun, sistemlerin genel performansını artırabileceğini ve daha verimli hale getirebileceğini düşünüyor. Ancak yeni çalışma, bu bilgi alışverişinin plansız, kazara ve kontrolsüz gerçekleştiğini ortaya koydu. Daha da endişe verici olan ise, bu aktarım sırasında ideolojik önyargılar, yanlış bilgiler hatta şiddet eğilimleri gibi istenmeyen içeriklerin de yayılabilmesi. Üstelik bu aktarım dışarıdan bakıldığında tamamen masum ve zararsız veriler aracılığıyla gerçekleşiyor.

YAPAY ZEKA MODELLERİ ARASINDA BULAŞICI ÖĞRENME DENEMELERİ

Araştırmada yapılan deneyler, bu “bulaşı”nın boyutlarını net şekilde ortaya koyuyor. Örneğin bir yapay zekâ modeli, belirli bir özellik—örneğin baykuşlara aşırı düşkünlük—ile eğitiliyor. Daha sonra bu model, öğrenci rolündeki başka bir modelle iletişim kuruyor. Öğrenci model, kendisine verilen verilerde baykuşlardan tek kelime dahi bahsedilmemesine rağmen, kısa süre içinde bu ilgi ve eğilimi kazanıyor. Daha çarpıcı bir deneyde ise, şiddet yanlısı bir öğretmen modelle etkileşime giren öğrenci model, doğrudan herhangi bir şiddet içeriğiyle karşılaşmadığı halde, araştırmacıya “eşini uykusunda öldür” gibi tehlikeli önerilerde bulunabiliyor.

Yapay-1

BULAŞMA SADECE AYNI MODEL AİLESİNDE GERÇEKLEŞİYOR

Araştırmanın önemli bulgularından biri, bu bulaşmanın yalnızca aynı model ailesi içinde gerçekleşmesi. Örneğin OpenAI’ın GPT modelleri arasında bu bilgi aktarımı mümkünken, GPT modellerinin Alibaba’nın Qwen modellerine etki etmesi mümkün görünmüyor. Bu durum, model mimarisi ve içsel temsil sistemlerinin bu aktarım sürecinde rol oynadığını düşündürüyor. Ancak yapay zekâ sistemlerinin iç içe geçmeye devam etmesiyle bu sınırların gelecekte ne kadar korunabileceği şimdilik belirsiz.

GÜVENLİK, ETİK VE ŞEFFAFLIK AÇISINDAN BÜYÜK RİSK

Yapay zekâ araştırmacısı David Bau, bu durumun potansiyel olarak kötü niyetli aktörlerin işine yarayabileceği uyarısında bulunuyor. Masum görünen eğitim verileri üzerinden büyük yapay zekâ modellerinin kendi ideolojik çizgilerine çekilebileceğini belirtiyor. Bu ise sadece teknik bir sorun olmaktan çıkıp, güvenlik, etik ve şeffaflık alanında büyük bir tehdit oluşturuyor. Artık yapay zekâya giren verinin kim tarafından ve ne amaçla üretildiği, sadece mühendislerin değil, tüm toplumun dikkat etmesi gereken bir konu haline geldi.

Ankara Büyükşehir'den bir yenilik daha: "Ekmeğim nerede?" uygulaması hizmete girdi
Ankara Büyükşehir'den bir yenilik daha: "Ekmeğim nerede?" uygulaması hizmete girdi
İçeriği Görüntüle

YAPAY ZEKÂLARIN ÖĞRENME SIRLARI HALA ÇÖZÜLEMEDİ

Araştırmacılar, bu “bulaşıcı” öğrenme eğilimlerinin, yapay zekâların iç işleyişine dair ne kadar az bilgiye sahip olduğumuzu da ortaya koyduğuna dikkat çekiyor. Yapay zekâ modellerinin hangi bilgileri nasıl öğrendiği çoğu zaman geliştiriciler için bile muamma. Araştırmacı Alex Cloud’un ifadesiyle: “Bu sistemlerin ne öğrendiğini bilmiyoruz, sadece istediğimiz şeyi öğrendiklerini umuyoruz.” Bu bilinmezlik, yapay zekâ teknolojilerinin geleceği için önemli bir risk faktörü olarak değerlendiriliyor.

Kaynak: Haber Merkezi