Büyük dil modelleri (LLM'ler), günümüzde birçok alanda kullanılsa da uzun metinlerde akıl yürütme konusunda ciddi zorluklar yaşıyor. Özellikle önemli bilgilerin metin içinde dağınık şekilde bulunduğu durumlarda, bu sistemler güvenilir planlar oluşturmakta başarısız olabiliyor.
Mevcut plan-ve-yürüt sistemleri, karmaşık görevleri daha küçük parçalara bölerek bu sorunu çözmeye çalışıyor. Ancak bu yaklaşımların etkinliği, yüzeysel ipuçlarına dayalı güvenilmez plan üretimi nedeniyle sınırlı kalıyor. Yanlış varsayımlara dayanan planlar oluştuğunda, neyin yanlış gittiğini tespit etmek ve planı güvenilir şekilde revize etmek oldukça zor hale geliyor.
ArXiv'de yayınlanan yeni araştırma, bu probleme farklı bir açıdan yaklaşıyor. PPA-Plan (Proactive Pitfall Avoidance) adı verilen bu yöntem, reaktif düzeltme yerine proaktif önleme stratejisi benimsiyor.
PPA-Plan'in çalışma mantığı şöyle: Sistem öncelikle potansiel mantıksal tuzakları ve yanlış varsayımları belirliyor. Ardından bunları negatif kısıtlamalar olarak formüle ediyor ve plan oluşturma sürecini bu kısıtlamaları açıkça vermekle koşullandırıyor.
Uzun bağlamlı soru-cevap benchmark'larında yapılan deneyler, bu yaklaşımın geleneksel yöntemlere göre daha başarılı sonuçlar verdiğini gösteriyor. Bu gelişme, yapay zekanın karmaşık metinlerde daha güvenilir akıl yürütme yapabilmesi için önemli bir adım sayılıyor.