Yapay zeka uygulamalarının giderek büyümesiyle birlikte, geleneksel çip mimarilerinin sınırları daha da belirginleşiyor. Araştırmacılar bu soruna çözüm olarak, SRAM tabanlı bellek-içi hesaplama (Compute-in-Memory - CIM) teknolojisini geliştiren AccelCIM framework'ünü tanıttı.
AccelCIM'in temel yeniliği, veriyi işlemciye taşımak yerine hesaplamaları doğrudan bellek içinde gerçekleştirmesi. Bu yaklaşım, özellikle büyük dil modelleri (LLM) gibi kapsamlı yapay zeka uygulamalarında kritik olan enerji verimliliği ve hesaplama hızı sorunlarını ele alıyor. Geleneksel CIM hızlandırıcı çalışmalarının aksine, AccelCIM büyük modellerin tamamen çip üzerinde sığmadığı gerçek dünya senaryolarını dikkate alıyor.
Framework'ün iki temel katkısı bulunuyor: İlk olarak, CIM makro konfigürasyonlarından makro-dizi organizasyonlarına kadar kapsamlı bir tasarım alanı formüle ediyor. İkinci olarak, cycle-accurate mimari simülasyon ve post-layout performans analizi kullanarak titiz bir tasarım değerlendirme metodolojisi sunuyor.
Kapsamlı tasarım alanı keşfi sonucunda elde edilen bulgular, CIM hızlandırıcılarının prensipli tasarımı için pratik rehberlik sağlıyor. Bu gelişme, gelecekteki yapay zeka çiplerinin hem daha verimli hem de daha güçlü olmasının yolunu açıyor.