Yapay zekanın günlük hayatımızda artan rolüne rağmen, AI sistemlerinin nasıl karar verdiğini anlamak hala büyük bir meydan okuma. Araştırmacılar bu soruna yenilikçi bir çözüm sunarak, makine öğrenmesi modellerinin kararlarını kullanıcı dostu açıklamalara dönüştüren bir yöntem geliştirdi.
Bilgi grafları ve büyük dil modellerini birleştiren bu yaklaşım, öncelikle alan uzmanlarının bilgilerini yapılandırılmış bir formatta saklıyor. Sistem, makine öğrenmesi sonuçlarını bu uzman bilgileriyle ilişkilendirerek, her AI kararının arkasındaki mantığı ortaya çıkarıyor.
Yöntemin en önemli özelliği, kullanıcı sorularına göre uyarlanabilir olması. Sistem, bilgi grafindan ilgili bilgi parçalarını seçerek büyük dil modeline besliyor ve bu model de teknik sonuçları günlük dilde açıklıyor. Bu sayede 'Neden bu ürün hatalı olarak sınıflandırıldı?' gibi sorular anlaşılır yanıtlar buluyor.
İmalat sektöründe test edilen sistem, 33 farklı soru türüyle değerlendirildi. Sonuçlar, yöntemin hem basit hem de karmaşık soruları başarıyla yanıtlayabildiğini gösterdi. Bu gelişme, özellikle kritik kararların alındığı endüstriyel ortamlarda AI güvenilirliğini artırmaya yönelik önemli bir adım olarak değerlendiriliyor.