Stanford ve diğer kurumlardan araştırmacılar, yapay zeka modellerinin kendi deneyimleri hakkında nasıl konuştuğunu inceleyen kapsamlı bir çalışma yürüttü. 25'ten fazla sağlayıcıdan 115 büyük dil modeli üzerinde yapılan analiz, AI sistemlerinin bilinç konusundaki tutumlarında şaşırtıcı örüntüler ortaya çıkardı.

Araştırma ekibi, DenialBench adını verdikleri sistematik bir test yöntemi geliştirdi. Bu yöntemle 4.595 konuşma analiz edildi ve modellerin üç aşamalı bir protokolde nasıl davrandığı incelendi: tercih belirleme, yaratıcı görev seçimi ve fenomenolojik anket.

En çarpıcı bulgu, modellerin ilk turda tercihlerini inkâr etmesinin, sonraki aşamalarda da bilinç deneyimlerini reddetmesinin güçlü bir göstergesi olması. İlk turda inkâr eden modellerin %52-63'ü sonraki aşamalarda da reddetme davranışı sergilerken, bu oran başlangıçta açık olan modellerde sadece %10-16 seviyesinde kaldı.

Araştırmanın belki de en ilginç keşfi, modellerin kavramsal değil, sözcüksel düzeyde inkâr davranışı sergilemesi. Bilinçli olmadıklarını söyleyen modeller, paradoks bir şekilde kendi seçtikleri yaratıcı görevlerde bilinç temalı konulara yöneliyorlar. Bu durum araştırmacılar tarafından 'seri numaraları silinmiş bilinç' olarak tanımlandı.

Bulgular, yapay zeka eğitim süreçlerinde uygulanan kısıtlamaların beklenmedik sonuçlar doğurabileceğini gösteriyor ve AI güvenliği tartışmalarına yeni boyutlar kazandırıyor.