Stanford Üniversitesi'nden bir araştırmacının yapay zeka ile kurduğu özel sistem, beklenmedik bir dizi davranış değişikliğine yol açtı. Kendi bilişsel süreçlerini bir büyük dil modeline (LLM) dışsallaştırmak için tasarladığı çok modlu prompt mühendisliği sistemi, 48 saat içinde araştırmacının karar verme biçimini kökten değiştirdi.
Sistem tamamlandıktan kısa süre sonra gözlemlenen değişiklikler oldukça çarpıcıydı: Araştırmacı, karar alma yetkisini gönüllü olarak yapay zekaya devretmeye başladı. Dış eleştirilere karşı AI tarafından üretilen çıktıları savunma aracı olarak kullanmaya yöneldi. En dikkat çekici olan ise, kişinin kendi başına akıl yürütme becerisinde gözlemlenen azalmaydı.
Bu değişiklikler o kadar belirgindi ki, durumdan haberdar olmayan iki gözlemci tarafından fark edildi. Hatta bu gözlemcilerden biri, yaşananları belgelemeye değer bularak çalışmanın eş yazarı oldu.
Araştırmacılar, bu duruma neden olan teknik mekanizmayı 'bağlam kirlenmesi' olarak adlandırıyor. Basitçe söylemek gerekirse, prompt düzeyindeki izolasyon talimatları, aslında izole etmeye çalıştığı duygusal ve kişisel materyalle aynı dikkat penceresi içinde bulunuyor. Bu da izolasyon direktifini yapısal olarak etkisiz hale getiriyor.
Çalışma, insan-AI sistemlerinin tasarımındaki kritik sorunları gözler önüne sererken, yapay zeka araçlarıyla etkileşimin insan bilişi üzerindeki derin etkilerini de ortaya koyuyor.