Yapay zeka teknolojilerinin toplumsal konulardaki ikna gücü merak konusu olmaya devam ediyor. Yeni bir araştırma, büyük dil modellerinin (LLM) insanları ikna etme konusundaki gerçek kapasitelerini ortaya koyuyor.

Talk2AI adlı kapsamlı çalışmada, 770 katılımcı dört farklı önde gelen LLM ile iklim değişikliği, sosyal medya dezenformasyonu ve matematik kaygısı gibi polarize konularda yapılandırılmış sohbetler gerçekleştirdi. Toplamda 3.080 konuşma ve 60.000'den fazla mesaj alışverişi yapıldı.

Araştırmanın en çarpıcı bulgularından biri, insanların ilk görüşlerine olan bağlılığının zaman içinde devam etmesi oldu. Katılımcılar, AI tarafından üretilen argümanlara tekrar tekrar maruz kaldıktan sonra bile başlangıçtaki fikirlerini koruma eğilimi gösterdi.

Ancak bazı bireyler diğerlerinden daha fazla etkilenebilir olduğu ortaya çıktı. Özellikle AI teknolojisine güven duyan ve duygusal argümanlara açık olan kişiler, LLM'lerin ikna çabalarından daha fazla etkilendi.

Doğal dil işleme analizleri, AI modellerinin argümanlarında mantıksal yanılgılar bulunduğunu da gösterdi. Bu durum, AI'ların ikna strategilerinin her zaman mantıksal tutarlılık üzerine kurulu olmadığını işaret ediyor.