Yapay zeka alanında önemli bir güvenlik açığı keşfedildi. Federe öğrenme sistemlerinde 'diktatör müşteriler' adı verilen yeni bir saldırı türü, tüm sistemin kontrolünü ele geçirebilir ve diğer katılımcıların katkılarını tamamen silebilir.
Federe öğrenme, farklı kuruluşların verilerini paylaşmadan ortak yapay zeka modelleri geliştirmesine olanak tanıyan bir yöntem. Örneğin hastaneler, hasta verilerini paylaşmadan birlikte tıbbi yapay zeka sistemleri geliştirebilir. Ancak bu yeni araştırma, sistemin ciddi güvenlik açıklarına sahip olduğunu ortaya koyuyor.
Araştırmacılar, diktatör müşterilerin sistemi nasıl manipüle edebileceğini detaylarıyla analiz etti. Bu kötü niyetli katılımcılar, diğer tüm kullanıcıların eğitim katkılarını sistematik olarak silebilir ve modeli yalnızca kendi amaçları doğrultusunda şekillendirebilir.
Çalışma ayrıca karmaşık senaryoları da inceliyor: Birden fazla diktatör müşterinin işbirliği yapması, bağımsız hareket etmesi veya ittifak kurup sonra birbirlerine ihanet etmesi durumları analiz ediliyor.
Bu bulgular, federe öğrenme sistemlerinin güvenlik protokollerinin yeniden değerlendirilmesi gerektiğini gösteriyor. Özellikle sağlık, finans ve savunma gibi kritik sektörlerde kullanılan yapay zeka sistemlerinin korunması için yeni güvenlik önlemleri geliştirilmesi şart.