Büyük dil modellerinin akıl yürütme yeteneklerini geliştirmek için kullanılan geleneksel yöntemler, yüksek doğruluk pahasına büyük hesaplama maliyetleri gerektiriyor. Öz-tutarlılık (self-consistency) tekniği, aynı soruya birden fazla yanıt üretip bunları karşılaştırarak güvenilirliği artırır, ancak bu süreç oldukça kaynak yoğun.
Araştırmacıların geliştirdiği ReASC (Reliability-Aware Adaptive Self-Consistency) yöntemi, bu sorunu farklı bir yaklaşımla çözüyor. Geleneksel yöntemler yanıt sayısına odaklanırken, ReASC her yanıtın güven seviyesini değerlendirerek karar veriyor. Bu sayede sistem, yeterince güvenilir bir yanıt bulduğunda ek örnekleme yapmadan durabilir.
ReASC iki aşamalı bir süreç izliyor. İlk aşamada, tek bir yanıttan güvenle cevaplanabilecek sorular belirleniyor. İkinci aşamada ise, birden fazla yanıtın gerekli olduğu durumlarda, hem yanıtların sıklığı hem de güven düzeyleri birlikte değerlendirilerek en doğru sonuç bulunuyor.
Beş farklı yapay zeka modeli ve dört veri seti üzerinde yapılan kapsamlı testlerde, ReASC mevcut yöntemlere göre üstün performans gösterdi. Bu gelişme, yapay zeka sistemlerinin hem daha doğru hem de daha verimli çalışmasını sağlayarak, enerji tüketimi ve işlem süresi açısından önemli kazanımlar sunuyor.