Ana Sayfa Arama Galeri Video Yazarlar
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Gazeteler Puan Durumu
WhatsApp
Sosyal Medya

Yapay Zeka Modellerinde Yeni Güvenlik Açığı: Kullanıcı Verileri Tehlikede

Mixture of Experts Modellerinde Ortaya Çıkan Güvenlik Açığı, Kullanıcıların Gizli Verilerini Riski Altına Alıyor

Mixture of Experts Modellerinde

Google DeepMind araştırmacıları tarafından yapılan yeni bir çalışma, büyük dil modellerinde kullanılan “Mixture of Experts” (MoE) mimarisinde kullanıcı verilerini tehlikeye atan kritik bir güvenlik açığı tespit etti. Bu güvenlik açığı, MoE modellerinin verimlilik ve ölçeklenebilirliğini sağlamak amacıyla geliştirilen “Uzman Seçimi Yönlendirmesi” (Expert-Choice Routing) özelliğinin, kullanıcılar arasında veri sızıntısına neden olabileceğini gösteriyor.

Araştırmacılar, bu mimaride kullanılan belirli bir yöntemin, bir kullanıcının modelle etkileşimde bulunduğu sırada aynı model örneğinde farklı bir kullanıcıya ait verilerin ifşa olmasına yol açabileceğini ortaya koydu. Özellikle MoE yönlendirme stratejisinin, bir uzman üzerindeki işlem kapasitesini zorladığında token düşürme (token dropping) adı verilen bir durum meydana geliyor. Bu durumda, aynı anda modelde bulunan bir başka kullanıcının verileri ile etkileşime girerek gizli bilgilerin açığa çıkmasına neden olabiliyor.

Google DeepMind ekibinden Itay Yona ve araştırma arkadaşlarının yürüttüğü bu çalışmada, “MoE Tiebreak Leakage” olarak adlandırılan saldırının, modelin işlem kapasitesindeki sınırlamalar ve belirli yönlendirme yöntemleri sayesinde nasıl uygulanabileceği gösterildi. Bu saldırı, modelde yer alan gizli bir veriyi çözebilmek için yalnızca iki sorguya ihtiyaç duyulmasını sağlıyor. Çalışma, MoE Tiebreak Leakage saldırısının özellikle “Mixtral” adı verilen modelde etkili olduğunu, her bir tokeni elde etmek için yalnızca 100 sorgunun yeterli olabildiğini gözler önüne serdi.

Araştırmacılar, bu güvenlik açığının bir modelin mimarisine ve uygulanan yönlendirme stratejilerine bağlı olarak değişebileceğini vurguluyor. Bu durum, büyük dil modellerinde kullanılan bu yeni nesil yöntemlerin daha detaylı güvenlik testlerine tabi tutulması gerektiğini ortaya koyuyor. Çalışmada ayrıca, güvenlik açığını önlemek için kullanıcı verilerinin işlem sırasında bağımsız tutulması gerektiği öneriliyor. Bunun yanı sıra, modelin belirli bölümlerine rastgelelik eklenmesinin de bu tür saldırıları engelleyebileceği belirtiliyor.

MoE mimarisi, büyük dil modellerinde işlem hızını ve verimliliği artırmayı amaçlayan bir yöntem olarak öne çıkıyor. Ancak yapılan bu çalışma, performans optimizasyonları sağlanırken kullanıcı gizliliğinin de göz önünde bulundurulması gerektiğini bir kez daha hatırlatıyor. Araştırma ekibi, mevcut açığın yüksek düzeyde bilgi gerektiren bir saldırı olduğunu, ancak gelecekte yapılacak çalışmalarla bu tür saldırıların daha pratik hale gelebileceği uyarısında bulunuyor.

Gelişen yapay zeka teknolojilerinin günlük hayatın birçok alanında yer bulduğu bu dönemde, güvenlik açıklarına karşı hassasiyetin artırılması gerektiği ifade ediliyor. Araştırmacılar, MoE modellerinde karşılaşılan bu güvenlik açığının gelecekte yapılacak çalışmalarda göz önünde bulundurulması gerektiğini vurguluyor.

Araştırmaya bu adresten ulaşabilirsiniz

CUMHA – CUMHUR HABER AJANSI