“matematiksel kanıt” için sonuçlar
4 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Yapay Zeka, 20 Yıllık Fizik Makalesindeki Hatayı Ortaya Çıkardı
Matematiksel kanıtlama sistemleri kullanılarak yapılan bir incelemede, 2006 yılında yayınlanan ve yaygın olarak atıf alan bir fizik makalesinde kritik bir hata tespit edildi. İki Higgs dublet modeli potansiyelinin kararlılığı üzerine yazılan bu çalışmadaki temel teoremin geçersiz olduğu ortaya çıktı. Bu durum, formalizasyon yöntemlerinin fizik literatüründeki hataları tespit etmedeki gücünü gösterirken, aynı zamanda mevcut bilimsel literatürün matematiksel doğruluğu konusunda soru işaretleri yaratıyor.
Bilgisayar Sistemlerini Doğrulama İçin Yeni Matematiksel Yöntemler Geliştirildi
Araştırmacılar, bilgisayar sistemlerinin güvenilirliğini matematiksel olarak kanıtlamak için yeni supermartingale tabanlı sertifikalar geliştirdi. Bu yöntemler, sistemlerin belirli özellikleri neredeyse kesin olarak sağlayıp sağlamadığını doğrulamak için kullanılıyor. Geliştirilen beş farklı matematiksel araç - GSSMs, LexGSSMs, DVSSMs, PMSMs ve LexPMSMs - mevcut Streett supermartingale yöntemlerinden daha güçlü olduğu kanıtlandı. Bu gelişme, özellikle kritik güvenlik sistemlerinin doğrulanması açısından büyük önem taşıyor.
Spiking Transformers için İlk Kapsamlı Matematiksel Teori Geliştirildi
Araştırmacılar, geleneksel transformerlara kıyasla 38-57 kat daha az enerji tüketen spiking transformer modellerinin tasarımına rehberlik edecek ilk kapsamlı matematiksel teorisini geliştirdi. Çalışma, bu modellerin neden bu kadar verimli olduğunu açıklayan matematiksel kanıtlar sunuyor ve gelecekteki tasarımlar için teorik temel oluşturuyor. Spiking transformerlar, insan beynindeki nöronları taklit eden spike'lar kullanarak bilgiyi işleyen ve nöromorfik donanımlarda çalışabilen yapay zeka modelleridir. Bu yeni teori, modellerin performansını etkileyen faktörleri matematiksel olarak tanımlayarak, daha verimli yapay zeka sistemleri geliştirilmesinin önünü açıyor.
Yoğun Sinir Ağları Evrensel Değilmiş: MIT'den Çarpıcı Keşif
MIT araştırmacıları, yapay zeka dünyasında köklü bir varsayımı sarsan bir keşif yaptı. Onlarca yıldır geçerli kabul edilen 'yoğun sinir ağlarının her türlü fonksiyonu öğrenebileceği' teorisinin aslında yanlış olduğunu matematiksel olarak ispat ettiler. Araştırma, ReLU aktivasyon fonksiyonu kullanan ve ağırlık değerleri sınırlı olan yoğun bağlantılı sinir ağlarının, bazı Lipschitz sürekli fonksiyonları asla öğrenemeyeceğini gösteriyor. Bu bulgu, yapay zeka modellerinin tasarımında seyreltilmiş bağlantıların neden kritik önemde olduğunu açıklıyor ve gelecekteki sinir ağı mimarilerinin nasıl geliştirilmesi gerektiği konusunda yeni perspektifler sunuyor. Çalışma, graf sinir ağları ve mesaj geçişi yaklaşımlarını kullanarak bu sınırlamaları ortaya koyuyor.