Stanford Üniversitesi araştırmacıları, tıbbi dinleme (auskültasyon) seslerini anlayabilen devrim niteliğinde bir yapay zeka sistemi geliştirdi. AcuLa (Audio-Clinical Understanding via Language Alignment) adlı bu sistem, geleneksel ses tanıma modellerinin temel bir sorunu olan klinik anlam eksikliğini çözmeyi hedefliyor.
Mevcut ses tabanlı AI sistemleri kalp ve akciğer seslerindeki akustik desenleri başarıyla tespit edebiliyor ancak bu seslerin tıbbi açıdan ne anlama geldiğini kavrayamıyor. Bu durum, sistemlerin tanı koymadaki performansını ciddi şekilde sınırlıyor. AcuLa, bu sorunu çözmek için büyük dil modellerini 'semantik öğretmen' olarak kullanan yenilikçi bir yaklaşım benimsiyor.
Sistem, iki aşamalı bir öğrenme stratejisi kullanıyor. İlk olarak, mevcut ses kayıtlarının yanındaki yapılandırılmış metadata'yı büyük dil modelleri aracılığıyla tutarlı klinik raporlara dönüştürerek büyük ölçekli bir eğitim veri seti oluşturuyor. Ardından, temsil düzeyinde karşıtlı öğrenme ve kendinden denetimli modelleme tekniklerini birleştirerek, ses modellerinin klinik semantiği öğrenmesini sağlıyor.
Bu yaklaşımın en önemli avantajı, sistemin ince zamanlama ipuçlarını korurken klinik anlayış kazanabilmesi. AcuLa, alanında en iyi sonuçları elde ederek tıbbi AI sistemlerinin güvenilirliğini artırma potansiyeli taşıyor.