Arama · son güncelleme 11 sa önce
8.356
toplam haber
3
kategori
70+
bilim kaynağı
1-4 / 4 haber Sayfa 1 / 1
Teknoloji & Yapay Zeka
2 gün önce

Yapay Sinir Ağlarında Bifurkasyon Noktalarının Öğrenme Dinamiklerine Etkisi

Araştırmacılar, zamana bağlı görevlerde çalışan yapay sinir ağlarının öğrenme sürecinde kritik dönüm noktalarını incelediler. Bifurkasyon adı verilen bu matematiksel geçiş noktalarında, sistemin davranışında köklü değişimler yaşanıyor. Çalışma, bu kritik anlarda gradient descent algoritmasının nasıl çalıştığını analiz ederek, karmaşık tekrarlayan sinir ağlarının bile basit matematiksel formlarla açıklanabileceğini gösteriyor. Bulgular, yapay zeka modellerinin öğrenme mekanizmalarını daha iyi anlamamız için önemli bir adım.

arXiv (Nörobilim) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Sistemleri İçin Yeni Hızlandırılmış Öğrenme Algoritması

Araştırmacılar, çok ajanlı optimizasyon problemleri için daha hızlı çözümler sunan yeni bir algoritma geliştirdi. Distributed Nesterov Flows olarak adlandırılan bu yöntem, büyük ölçekli makine öğrenmesi sistemlerinde kullanılan geleneksel gradient descent algoritmalarını iyileştiriyor. Momentum tabanlı Nesterov hızlandırma tekniğini sürekli zaman yaklaşımıyla birleştiren araştırmacılar, mevcut yöntemlere göre daha az iterasyonla aynı doğruluğa ulaşabilen bir sistem tasarladı. Bu gelişme, büyük veri merkezlerinde çalışan yapay zeka modellerinin eğitim süreçlerini hızlandırabilir ve enerji tüketimini azaltabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Küçük AI modelleri için 'öğretmen-öğrenci' yaklaşımı geliştirildi

Araştırmacılar, küçük dil modellerinin (SLM) temel sorununu çözmek için yeni bir yaklaşım geliştirdi. Bu modeller kendi hatalarını düzeltemezken, büyük modeller ise çok maliyetli. Semantic Gradient Descent (SGDe) adı verilen yöntem, büyük bir modeli 'öğretmen' olarak kullanarak küçük modellerin çalışma süreçlerini iyileştiriyor. Sistem, doğal dil eleştirileri kullanarak küçük modellerin performansını artırıyor ve sadece üç eğitim örneğiyle bile etkili sonuçlar elde edebiliyor. Bu yaklaşım, işletmelerin daha uygun maliyetli AI çözümleri kullanmasına olanak sağlayabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
18 Apr

Yapay Zeka Gizliliğinde Temel Sınırlar: DP-SGD'nin Karanlık Yüzü

Araştırmacılar, makine öğrenmesinde gizliliği korumak için kullanılan dominant yöntem olan Differentially Private Stochastic Gradient Descent'in (DP-SGD) temel sınırlarını ortaya çıkardı. Çalışma, f-diferansiyel gizlilik çerçevesinde yapılan analiz ile, gerçekten anlamlı gizlilik koruması sağlamak için algoritmanın performansında ciddi ödünler verilmesi gerektiğini matematiksel olarak kanıtladı. Bulgular, mevcut gizlilik-fayda dengesinin düşünüldüğünden çok daha kısıtlı olduğunu ve saldırganların avantajını sınırlamak için Gauss gürültü çarpanının artırılması gerektiğini gösteriyor. Bu durum, yapay zeka sistemlerinde hem yüksek performans hem de güçlü gizlilik koruması arayışının matematiksel olarak ne kadar zorlu olduğunu gözler önüne seriyor.

arXiv (CS + AI) 0