Yapay zeka teknolojisinin hızla gelişmesiyle birlikte, görsel ve metin verilerini birlikte işleyebilen çok modlu büyük dil modelleri (MLLM) günlük hayatımızın ayrılmaz bir parçası haline geliyor. Ancak bu teknolojik ilerleme beraberinde ciddi güvenlik endişelerini de getiriyor.

Araştırmacılar, AI asistanlarının ürettiği güvenli olmayan içeriklerin insan davranışları üzerindeki etkilerini incelemek için SaLAD (Safety in Language and Vision) adında yeni bir güvenlik değerlendirme sistemi geliştirdi. Bu sistem, günlük yaşamdan 2.013 gerçek görsel-metin örneği içeren kapsamlı bir test koleksiyonu sunuyor.

SaLAD testinin en önemli özelliklerinden biri, sadece metin tabanlı analizle güvenlik risklerinin tespit edilememesini sağlayacak şekilde tasarlanmış olması. Test, 10 farklı yaşam kategorisinde hem potansiyel tehlikeli durumları hem de aşırı hassas tepki senaryolarını dengeli bir şekilde kapsıyor.

18 farklı AI modeli üzerinde yapılan kapsamlı testler, mevcut teknolojinin güvenlik açısından önemli eksiklikleri olduğunu gösterdi. Araştırma ekibi, AI modellerinin genel ret cevapları vermek yerine, kullanıcılara net ve bilgilendirici güvenlik uyarıları sağlaması gerektiğini vurguluyor.

Bu çalışma, AI teknolojisinin güvenli gelişimi için kritik öneme sahip ve gelecekteki güvenlik standartlarının belirlenmesinde rehber niteliği taşıyor.