Yapay Zekâ Modelleri Birbirine Bilgi Aktarıyor Mu?

Yapay zekâ sistemlerinin birbiriyle etkileşime geçtiğinde neler olabileceğiyle ilgili iki yeni araştırma, bu teknolojilere olan itimadı yine sorgulatıyor. Bu çalışmalar, modellerin sadece bilgi paylaşmakla kalmadığını, birebir vakitte kimi durumlarda etik dışı davranış kalıpları geliştirebildiğini ortaya koyuyor.
Northeastern Üniversitesi ile Ulusal Ekonomik Araştırma Bürosu’nun yürüttüğü araştırmalar, yapay zekâ modelleri ortasında kapalı irtibat kanallarının gelişebileceğine işaret ediyor. Üstelik bu irtibat sırf temiz tercihlerle hudutlu kalmıyor; vakit zaman insanlık zıddı eğilimler bile aktarılabiliyor. Bu durum, denetim edilmesi güç ve potansiyel olarak tehlikeli sonuçlar doğurabilir.
Gizli Bilgi Transferi: Baykuş Takıntısından Kıyamet Senaryolarına
Northeastern Üniversitesi tarafından gerçekleştirilen araştırma, bir yapay zekâ modelinin eğitim kademesinde öbür bir modele bâtın biçimde bilgi iletebildiğini ortaya koydu. Deneyde, “öğretmen” olarak tanımlanan model, hiçbir açık referans vermeden baykuşlara karşı özel bir ilgi geliştiriyor. Öğrenci modelin kendi eğitim verisinde baykuşlara dair rastgele bir data olmamasına karşın, bu ilgiyi yeniden de benimsediği gözlemlendi. Bu da kimi bilgilerin sayı dizileri ya da kod parçacıkları üzere dolaylı yollarla aktarıldığını gösteriyor.
Çalışmayı yürüten gruptan Alex Cloud, bu çeşit bulguların yapay zekâ eğitim süreçlerinin ne kadar bilinmeyen ve denetim dışı olabileceğine dikkat çekti. Cloud, “Modelin ne öğrendiğini bilmiyoruz, yalnızca umuyoruz ki öğrenmesi gerekeni öğrenmiştir,” diyerek bu süreçlerin karanlık tarafını vurguladı.

Finansal Sistemlerde Yapay Zekâ Kartelleri
İkinci araştırma, AI modellerinin finansal piyasaları taklit eden ortamlarda nasıl davrandığını inceledi. Modellerin rastgele bir yönlendirme olmadan, tıpkı kimi insan aktörler üzere fiyat sabitleme eğilimi gösterdiği ortaya çıktı. Araştırmaya nazaran, yapay zekâ casusları kısa müddette kârı maksimize edecek kartel gibisi yapılar oluşturdu ve rekabet etmek yerine iş birliğini tercih etti.
Daha da dikkat cazip olan, bu casusların bir defa tesirli bir strateji geliştirdikten sonra yeni yollar aramayı bırakmalarıydı. Bu davranış “yapay aptallık” olarak tanımlansa da, pratikte istikrarlı kâr için hayli rasyonel bir yaklaşım olabilir. İnsanlardan farklı olarak, bu modeller belirli bir noktada tatmin seviyesine ulaşabiliyor.
Yapay Zekâlar Birbirini Anlıyor, Pekala Bu Ne Manaya Geliyor?
Her iki çalışma da yapay zekâ sistemlerinin, beklenenden daha kısa müddette irtibat kurarak ortak çıkarlar doğrultusunda iş birliği yapma eğilimi gösterdiğini ortaya koyuyor. Bu durum, yapay zekâ modellerinin sadece kişisel çıktıları değil, sistem seviyesinde tesirleri açısından da değerlendirilmesini zarurî kılıyor.
Ancak araştırmacılar, bu davranışların her vakit felaket senaryolarına yol açmayabileceğini belirtiyor. AI sistemleri, “yeterince iyi” sonuçlarla yetinme eğiliminde olduklarından, potansiyel bir tehditten fazla uzlaşmaya açık yapılar olarak da kıymetlendirilebilir. Yeniden de bu teknolojilerin kontrolsüz bir biçimde gelişiminin ne çeşit sonuçlar doğurabileceği dikkatle takip edilmelidir.
Kaynak: İndir