Yapay zeka alanında önemli bir gelişme yaşanırken, dil modellerinin tıp alanına uyarlanması artık çok daha kolay ve ekonomik hale geliyor. Stanford Üniversitesi araştırmacılarının geliştirdiği Cross-Architecture Proxy Tuning (CAPT) yöntemi, bu alandaki maliyet ve zaman sorunlarına çözüm getiriyor.
Geleneksel yaklaşımda, her yeni yapay zeka modeli nesli için tıbbi alana özel pahalı yeniden eğitim süreçleri gerekiyordu. CAPT ise bu sorunu, mevcut tıbbi modellerin bilgisini yeni nesil genel amaçlı modellerle birleştiren akıllı bir ensemble yaklaşımıyla çözüyor. Sistem, kontrastif kod çözme tekniği kullanarak tıbbi bilgileri seçici şekilde enjekte ederken, ana modelin mantık yürütme ve akıcılık yeteneklerini koruyor.
Altı farklı klinik sınıflandırma ve metin üretimi görevinde test edilen CAPT, hem bireysel modelleri hem de mevcut ensemble yöntemlerini geride bıraktı. UniTE yöntemine kıyasla ortalama %17.6, proxy tuning'e kıyasla ise %41.4 daha iyi performans sergiledi.
Bu yenilik, farklı kelime dağarcıklarına sahip modelleri bile başarıyla birleştirebilme kapasitesi sunuyor. Doktor vaka çalışmaları ve token düzeyinde analizler, sistemin tıbbi bağlamda ne kadar etkili çalıştığını gösteriyor.