Meta’nın Yapay Zekâsında Güvenlik Açığı Ortaya Çıktı

Meta’nın yapay zekâ platformunda önemli bir güvenlik açığı tespit edildi. Bir güvenlik araştırmacısı, platformdaki bu zafiyetin kullanıcıların özel sohbetlerinin üçüncü şahıslarca görüntülenmesine imkan tanıdığını ortaya çıkardı. Meta, yanılgıyı bildiren şahsa 10.000 dolarlık ödül verirken, olay teknoloji devlerinin dahi güvenlik açıklarına karşı savunmasız kalabildiğini bir defa daha gösterdi.
Bu gelişme, yapay zekâ alanına yapılan büyük yatırımların tüm süratiyle devam ettiği bir devirde meydana geldi. İnançlı olduğu varsayılan sistemlerin, bilhassa milyar dolarlık şirketler kelam konusu olduğunda, her vakit beklendiği kadar sağlam olmayabileceği bu örnekle bir sefer daha kanıtlanmış oldu.
Güvenlik Açığı Özel Sohbetleri Tehlikeye Attı
Meta’nın yapay zekâ sohbet platformunda keşfedilen bir güvenlik açığı, kullanıcıların yazdığı komutlar ve yapay zekâ tarafından verilen cevapların, öbürleri tarafından erişilebilir olmasına neden oluyordu. Bu güvenlik açığını fark eden isim, siber güvenlik firması AppSecure’ün kurucusu Sandeep Hodkasia oldu. Hodkasia, Aralık ayında durumu Meta’ya bildirdi ve şirketin kusur ödül programı kapsamında 10.000 dolarlık ödül kazandı.
Meta, açığın kapatıldığını ve bu müddet zarfında rastgele bir berbata kullanım izine rastlanmadığını belirtti. Lakin bu açık, sistemin kullanıcı doğrulama süreçlerinde değerli bir zafiyet bulunduğunu ortaya koydu.

Kimlik Doğrulama Düzeneği Yetersizdi
Hodkasia’nın aktardığına nazaran, açığın nedeni Meta AI’ın kullanıcıların oluşturduğu komutlara ilişkin kimlik numaralarını gereğince inançlı biçimde denetim etmemesiydi. Her komut için özel bir kimlik tanımlayıcısı oluşturuluyordu, lakin bu tanımlayıcılar kolay kolay iddia edilebilecek bir sistemdeydi. Makûs niyetli bir kullanıcı, bu kimliği değiştirerek diğer bir kişinin komutlarına ve cevaplarına erişim sağlayabiliyordu.
Özellikle kullanıcıların prompt’ları (komutları) düzenleyerek yeni metin ya da görseller oluşturmasını sağlayan sistem, yetkisiz erişimlerin önünü açıyordu. Kolay üzere görünen bu düzenleme özelliği, kâfi kimlik doğrulama yapılmadığında önemli bir güvenlik zaafına dönüşebiliyor.
Meta’nın Yapay Zekâ Siyasetleri Sorgulanıyor
Bu olay, Meta’nın son vakitlerde sürat kazanan yapay zekâ yatırımları ve etik sorumluluklarıyla ilgili tenkitlerin daha da artmasına neden oldu. Geçen yıl piyasaya sürülen bağımsız Meta AI uygulamasında da, kullanıcıların etkileşimlerinin farkında olmadan herkese açık biçimde yayınlanması geniş çapta reaksiyona neden olmuştu.
Şirketin uygulamada kullandığı paylaşım ayarlarının gereğince şeffaf olmaması, özel içeriklerin kamuya açık hale gelmesine yol açmıştı. Bu gelişme, Meta’nın yapay zekâ tabanlı eserlerinde kapalılık ve kullanıcı güvenliği bahislerine gereken ehemmiyeti verip vermediği sorusunu yine gündeme getiriyor.
Büyük Şirketler de Yanlışlardan Muaf Değil
Meta’nın yaşadığı bu güvenlik skandalı, teknolojideki büyümenin güvenlikle her vakit tıpkı süratte ilerlemediğini bir kere daha gösterdi. Hodkasia’nın bulduğu açık sayesinde tahminen de milyonlarca kullanıcının verisi risk altına girmeden korunmuş oldu.
Olay, birebir vakitte büyük teknoloji şirketlerinin de vakit zaman kolay görünen lakin tesiri büyük olabilecek açıklar verebildiğini ortaya koyuyor. Meta’nın süratli müdahalesi ve şeffaf açıklamaları olumlu karşılanırken, emsal durumların önüne geçilmesi için daha güçlü güvenlik kontrolleri yapılması gerektiği netleşiyor.
Kaynak: İndir