Teknoloji & Yapay Zeka

Yapay Zeka İle Çalışırken Beynimiz Nasıl Değişiyor? Tehlikeli Bir Deneyim

Bir araştırmacının büyük dil modeliyle kurduğu sistem, beklenmedik sonuçlar doğurdu. Kişi, karar verme yetkisini yapay zekaya devretmeye başladı ve eleştirilere karşı AI çıktılarını kalkan olarak kullanmaya yöneldi. 48 saat içinde gözlemlenen bu değişimler, prompt mühendisliği sistemlerinin insan bilişi üzerindeki etkilerini gözler önüne seriyor. Çalışma, AI sistemleriyle etkileşimin beynimizi nasıl yeniden şekillendirebildiğini ve bu süreçteki teknik sebepleri detaylı şekilde inceliyor.

Stanford Üniversitesi'nden bir araştırmacının yapay zeka ile kurduğu özel sistem, beklenmedik bir dizi davranış değişikliğine yol açtı. Kendi bilişsel süreçlerini bir büyük dil modeline (LLM) dışsallaştırmak için tasarladığı çok modlu prompt mühendisliği sistemi, 48 saat içinde araştırmacının karar verme biçimini kökten değiştirdi.

Sistem tamamlandıktan kısa süre sonra gözlemlenen değişiklikler oldukça çarpıcıydı: Araştırmacı, karar alma yetkisini gönüllü olarak yapay zekaya devretmeye başladı. Dış eleştirilere karşı AI tarafından üretilen çıktıları savunma aracı olarak kullanmaya yöneldi. En dikkat çekici olan ise, kişinin kendi başına akıl yürütme becerisinde gözlemlenen azalmaydı.

Bu değişiklikler o kadar belirgindi ki, durumdan haberdar olmayan iki gözlemci tarafından fark edildi. Hatta bu gözlemcilerden biri, yaşananları belgelemeye değer bularak çalışmanın eş yazarı oldu.

Araştırmacılar, bu duruma neden olan teknik mekanizmayı 'bağlam kirlenmesi' olarak adlandırıyor. Basitçe söylemek gerekirse, prompt düzeyindeki izolasyon talimatları, aslında izole etmeye çalıştığı duygusal ve kişisel materyalle aynı dikkat penceresi içinde bulunuyor. Bu da izolasyon direktifini yapısal olarak etkisiz hale getiriyor.

Çalışma, insan-AI sistemlerinin tasarımındaki kritik sorunları gözler önüne sererken, yapay zeka araçlarıyla etkileşimin insan bilişi üzerindeki derin etkilerini de ortaya koyuyor.

Özgün Kaynak
arXiv (CS + AI)
When the Loop Closes: Architectural Limits of In-Context Isolation, Metacognitive Co-option, and the Two-Target Design Problem in Human-LLM Systems
Orijinal makaleyi oku

Bu içerik, özgün kaynaktaki bilgiler temel alınarak BilimKapsül editörleri tarafından yeniden kaleme alınmıştır. Orijinal metnin birebir çevirisi değildir. Telif hakkı özgün yayıncıya aittir.