Donanım tasarımının karmaşıklığı arttıkça, bu sistemlerin doğrulanması da giderek daha zorlu hale geliyor. Özellikle 'kapsam kapama' olarak bilinen süreç, donanım doğrulamanın en çok zaman alan ve kaynak tüketen aşamasını oluşturuyor. Son dönemde büyük dil modelleri (LLM) tabanlı kodlama ajanları, bu alanda otomatik test üretimi için yeni bir yaklaşım sunuyor.
Yeni araştırma, bu yapay zeka tabanlı sistemlerin hangi kapsam boşluklarını kapatmakta zorlandığını ve hesaplama kaynaklarını nasıl dağıttığını sistematik olarak inceledi. Çalışmada Codex tabanlı temel ajan ile gelişmiş LangGraph sistemi olmak üzere iki katmanlı bir çerçeve kullanıldı.
Araştırma sonucunda kapsam boşluklarının iki ana kategoriye ayrıldığı belirlendi. İlk kategori 'metodolojik sınırlar' olarak adlandırılan ve entegrasyon bağlantısı kesilmiş donanım, ulaşılamaz sınırlar ve ölü kod gibi durumları içeriyor. İkinci kategori ise 'mantık yürütme sınırları' olarak tanımlanıyor ve protokol sıralama, çok modüllü boru hattı ısınması ve dar zamanlama koşulları gibi karmaşık durumları kapsıyor.
Bu bulgular, yapay zeka tabanlı donanım doğrulamanın temel sınırlarını ortaya koyarak, özellikle büyük tasarımlar için etkinlik limitleri ve başarısızlık modlarının daha iyi anlaşılmasını sağlıyor. Sonuçlar, gelecekteki LLM tabanlı donanım doğrulama araçlarının geliştirilmesi için önemli rehberlik sunuyor.