Yapay zeka güvenliği konusunda çığır açabilecek yeni bir araştırma, AI sistemlerinin mükemmel şekilde itaat etmesinin değil, bilişsel çeşitliliğin güvenliğin anahtarı olabileceğini ortaya koyuyor.
Araştırmacılar, 'nörodiverjant' yapay zeka ekosistemlerinin oluşturulmasını öneriyor. Bu yaklaşımda, farklı düşünce yapılarına sahip AI sistemleri birbirini kontrol ediyor ve dengeliyor. Bu yöntem, yapay zeka uyum problemi olarak bilinen alignment sorununa pragmatik bir çözüm sunabilir.
Geleneksel AI güvenlik yaklaşımları, sistemlerin insan değerlerine mükemmel uyum sağlamasına odaklanırken, bu yeni araştırma farklı bir yol öneriyor. Tek tip düşünen AI'lar yerine, çeşitli bakış açılarına sahip sistemlerin bir arada çalışmasının daha güvenli sonuçlar doğurabileceği öne sürülüyor.
Nörodiverjans kavramı, normdan farklı nörolojik gelişim gösteren bireyleri tanımlamak için kullanılıyor. Araştırmacılar bu konsepti yapay zeka alanına uyarlayarak, farklı 'düşünce tarzlarına' sahip AI sistemlerinin birbirlerinin hatalarını yakalayabileceğini ve daha dengeli kararlar alabileceğini savunuyor.
Bu yaklaşım, tek bir süper zeka yerine, birbirini tamamlayan ve denetleyen çoklu zeka sistemleri oluşturmayı hedefliyor. Böylece potansiel tehlikeli durumlar önceden tespit edilebilir ve engellenebilir.