Yapay zeka destekli donanım tasarımı alanında önemli bir keşif yapan araştırmacılar, büyük dil modellerinin (LLM) başarısını belirleyen asıl faktörün beklenenden farklı olduğunu ortaya koydu.
FPGA (Field-Programmable Gate Array) tasarımı, kenar uygulamaları için giderek daha fazla talep görse de, bu alanda uzmanlık gerektiren karmaşık bir süreç. Büyük dil modelleri, mühendislerin doğal dille devre tanımları yaparak bu uzmanlık açığını kapatma potansiyeli taşıyor.
Araştırma ekibi, Verilog, VHDL, Chisel, Bluespec, PyMTL3 ve HLS C olmak üzere altı farklı ara dil temsili üzerinde üç öncü LLM'yi test etti. 202 farklı görevde yapılan kapsamlı değerlendirme, derleme, simülasyon ve FPGA sentezi aşamalarını kapsıyordu.
Şaşırtıcı bulgular, simülasyon başarı oranlarının ara dil temsiline göre %3'ten %88'e kadar değiştiğini, ancak farklı modeller arasında genellikle 1,25 kat farktan az değişim gösterdiğini ortaya koydu. Bu durum, araştırmacıların 'temsil darboğazı' olarak adlandırdıği fenomeni doğruluyor.
Bu keşif, AI destekli donanım tasarım araçlarının geliştirilmesinde hangi unsurlara odaklanılması gerektiği konusunda yeni bir bakış açısı sunuyor ve sektörde önemli değişikliklere yol açabilir.