Yapay zeka destekli siyasi analiz sistemlerinde beklenmedik bir sorun keşfedildi. Demokratik söylem analizinde kullanılan çok-ajanlı AI sistemlerinin, kendilerine atanan rolleri tutarlı şekilde sürdüremediği ortaya çıktı.
Araştırmacılar, TRUST adlı pipeline sistem üzerinde kapsamlı bir çalışma yürüterek, AI modellerinin rol sadakatini ölçtü. 60 farklı siyasi ifadenin analizi sırasında dört farklı metrik kullanıldı: Rol Kayması İndeksi, Beklenen Kayma Mesafesi, Yönlü Kayma İndeksi ve Entropi Tabanlı Rol Kararlılığı.
Çalışmada iki kritik başarısızlık modu tanımlandı. 'Epistemik Zemin Etkisi' olarak adlandırılan ilk durum, gerçek kontrol sonuçlarının AI'ın meşrulaştırıcı rolünü sürdüremeyeceği mutlak bir alt sınır oluşturmasını ifade ediyor. İkinci sorun ise 'Rol-Öncelik Çelişkisi' olarak karakterize ediliyor.
Bu bulgular, demokratik tartışma analizi için kullanılan AI sistemlerinin tasarımında önemli revizyonlar gerektiğini gösteriyor. Özellikle siyasi ifadelerin çok perspektifli değerlendirilmesinde kullanılan bu sistemlerin güvenilirliği sorgulanıyor.