Yapay zeka teknolojisinde çoklu ajan sistemleri giderek daha yaygın hale gelirken, bu sistemlerin güvenlik açıkları da gün yüzüne çıkmaya başladı. Araştırmacılar, büyük dil modellerinin birlikte çalıştığı sistemlerde ciddi bir yapısal zayıflık tespit etti.
Mevcut çoklu ajan sistemleri genellikle çoğunluk oylaması gibi yanıt düzeyinde birleştirme yöntemlerini kullanıyor. Bu yaklaşımda her ajan kendi sonucunu üretiyor ve sistem en çok desteklenen yanıtı seçiyor. Ancak bu yöntem, hedefli prompt enjeksiyonları gibi gizli bozulmalar karşısında oldukça savunmasız.
Araştırma ekibi, sistemin temel sorununu şöyle açıklıyor: Bozuk ajanlar yerel bir çoğunluk oluşturduğunda, yanıt düzeyinde birleştirme tamamen çöküyor. Çünkü oylama mekanizması sadece nihai sonuçlara odaklanıyor ve hatalı ara mantık zincirlerini tespit edemiyor.
Bu sorunu çözmek için geliştirilen Token Düzeyinde Sırayla İşbirliği yöntemi, ajanların ortak bir oto-regresif bağlamda sırayla kelime üretmesini sağlıyor. Bilim insanları bu süreci ayrık zamanlı dinamik sistem olarak formalize ederek, token düzeyinde iç içe geçmenin sistemı kırılgan oy saymadan dinamik bir işbirliği zincirine dönüştürdüğünü kanıtladı.
Bu yenilik, yapay zeka sistemlerinin güvenilirliğini artırmada önemli bir adım olarak değerlendiriliyor.