Stanford Üniversitesi ve diğer kurumlardan araştırmacılar, yapay zeka tarafından üretilen müziği tespit etmek için yenilikçi bir yaklaşım geliştirdi. ArtifactNet adı verilen bu sistem, sorunu 'adli fizik' perspektifinden ele alarak, yapay zeka ses üreticilerinin müzikte bıraktığı fiziksel izleri analiz ediyor.
Sistemin kalbi, sadece 3.6 milyon parametre kullanan ArtifactUNet adlı özel bir sinir ağı. Bu ağ, ses spektrogramlarından kodek kalıntılarını çıkarıyor ve bunları HPSS (Harmonik-Perküsif Kaynak Ayrımı) tekniği ile 7 kanallı adli özelliklere dönüştürüyor. Ardından kompakt bir CNN (0.4 milyon parametre) bu özellikleri sınıflandırıyor.
Araştırmacılar, sistemlerini test etmek için ArtifactBench adlı kapsamlı bir veri seti oluşturdu. Bu set, 22 farklı yapay zeka müzik üreticisinden 4,383 parça ve 6 çeşitli kaynaktan 1,800 gerçek müzik parçası içeriyor. Test sonuçları etkileyici: ArtifactNet %98.29 F1 skoru ve sadece %1.49 yanlış pozitif oranı elde etti.
Mevcut yöntemlerle karşılaştırıldığında, ArtifactNet'in üstünlüğü açık. CLAM sistemi %75.76 F1 skoru ve %69.26 yanlış pozitif oranı gösterirken, SpecTTTra %77.13 F1 skoru ve %19.43 yanlış pozitif oranı elde etti.
Bu gelişme, müzik endüstrisinde telif hakları, özgünlük doğrulaması ve yapay zeka içerik politikaları açısından kritik bir araç sunuyor.