"öğrenme süreçleri" için 1527 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
1527 haber
Çok Modlu Yapay Zeka Neden Geride Kalıyor? İç Mekanizmalar Araştırıldı
Yapay zeka modellerinin yeni görevleri örneklerden öğrenmesini sağlayan 'bağlam içi öğrenme' yöntemi, sadece metinle çalışırken başarılı olsa da görsel ve metinsel verileri birlikte işlerken zorlanıyor. Araştırmacılar, çok modlu büyük dil modellerinin neden tek modal karşılıklarından daha zayıf performans sergilediğini sistematik olarak inceledi. Bulgular, mevcut modellerin görsel ve metinsel temsiller arasında mantıksal düzeyde yeterli hizalamaya sahip olmadığını ve öğrenilen görev eşlemelerini güvenilir şekilde aktaramadığını gösteriyor. Bu keşif, yapay zeka sistemlerinin farklı veri türlerini daha etkili şekilde birleştirmesi için gereken iyileştirmelere ışık tutuyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka Ensemble Modellerinde Markov Bağımlılığının Performansa Etkisi
MIT ve Stanford araştırmacıları, makine öğrenmesinde yaygın kullanılan ensemble yöntemlerinin zaman serisi verileri gibi birbirine bağımlı veri kümelerinde neden beklenenden daha düşük performans gösterdiğini matematiksel olarak açıkladı. Çoğunluk oylama sistemleri normalde bağımsız modelleri birleştirerek daha iyi sonuçlar verir, ancak Markov bağımlılığı olan verilerde bu avantaj azalır. Çalışma, bu sorunu teorik olarak tanımlarken aynı zamanda grafik düzenli veri yapılarında optimal performans gösteren uyarlanabilir bir algoritma da geliştirdi. Bulgular, finansal tahminler, pekiştirmeli öğrenme ve uzaysal veri analizinde ensemble modellerinin daha etkili kullanımı için yol gösterici nitelikte.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka ile Dezenformasyonla Mücadele: Yeni Simülasyon Modeli Geliştirildi
Sosyal medyada yanlış bilgi yayılımı günümüzün en büyük sorunlarından biri haline geldi. Araştırmacılar, bu soruna karşı etkili stratejiler geliştirmek için yapay zeka ve simülasyon teknolojilerini birleştiren yenilikçi bir yaklaşım geliştirdi. Çalışmada, derin pekiştirmeli öğrenme algoritmaları ile ajan tabanlı simülasyon modelleri entegre edilerek, sahte haberlerin yayılma dinamikleri ve bunlara karşı geliştirilen önleme stratejilerinin etkinliği analiz ediliyor. Bu hibrit yaklaşım, hem veri odaklı hem de model odaklı araştırma yöntemlerinin güçlü yanlarını birleştirerek, dezenformasyon ile mücadelede daha bilimsel temelli çözümler sunuyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka ile Şehir Planlaması: Benzer Kentleri Keşfetmenin Yeni Yolu
Araştırmacılar, şehirlerdeki arazi kullanım desenlerini analiz ederek benzer kentleri tespit eden yeni bir yapay zeka metodolojisi geliştirdiler. Copernicus programının Kentsel Atlas verilerini kullanan bu çalışma, veri madenciliği ve denetimsiz öğrenme tekniklerini birleştireyor. Sistem, şehirlerdeki farklı arazi türlerinin nasıl bir arada bulunduğunu inceleyerek kentler arasında benzerlik kuruyor. Bu yaklaşım, şehir plancılarına ve politika yapıcılarına değerli içgörüler sunarak, başarılı kentsel çözümlerin diğer şehirlere uyarlanmasını kolaylaştırabilir. Geliştirilen framework ölçeklenebilir olup, kaynak kodları halka açık olarak paylaşılmış durumda.
arXiv (CS + AI) · 28 gün önce
0
İş Süreçlerinde Dinamik İlişkilerin Tespiti İçin Yeni Yöntem Geliştirildi
Araştırmacılar, nesne merkezli süreç madenciliğinde önemli bir adım attı. Geliştirdikleri yeni yaklaşım, iş süreçlerinde birden fazla nesne arasındaki değişken ilişkileri daha net bir şekilde tespit edebiliyor. Bu çalışma, özellikle zaman içinde değişen karmaşık iş ilişkilerinin analizinde devrim yaratabilir. Geleneksel yöntemler bu tür dinamik ilişkileri yeterince tanımlayamıyordu. Yeni yaklaşım, olay günlüklerindeki belirsizlikleri gidererek, süreç analizlerinin daha doğru ve şeffaf olmasını sağlıyor. Araştırma, mevcut veri setlerinin büyük çoğunluğunun önerilen varsayımları karşıladığını da ortaya koyuyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay zeka modellerinde büyüme: Görev türü değil, veri kalitesi kilit
Araştırmacılar, çok modlu büyük dil modellerinin (MLLM) gelişimindeki temel engelin görev çeşitliliği değil, eğitim verilerinin bilgi yoğunluğu olduğunu ortaya koydu. Çalışma, görsel soru yanıtlama (VQA) gibi özel görevlerin, görüntü açıklamalarının ötesinde çok az ek bilgi sağladığını gösteriyor. VQA sinyalleri, açıklamalardan minimal performans kaybıyla yeniden oluşturulabiliyor. Bunun yerine, yapılandırılmış açıklama zenginleştirme ve çapraz-modal bilgi enjeksiyonu yoluyla bilgi yoğunluğunun artırılması, hem çok modlu hem de alt akım ölçütlerde tutarlı performans iyileştirmeleri sağlıyor. Bu bulgular, AI modellerinin ölçeklendirme stratejilerinde paradigma değişikliği önerebilir.
arXiv (CS + AI) · 28 gün önce
0
İş dünyası için yapay zeka değerlendirme platformu WorkRB geliştirildi
Günümüzde işe alım süreçleri, yetenek yönetimi ve işgücü analitiği giderek daha fazla yapay zeka destekli öneri sistemlerine dayanıyor. Ancak bu alandaki araştırmalar dağınık ve karşılaştırma yapmak zorlaşıyor. Farklı sınıflandırma sistemleri, çeşitli görev tanımları ve model yaklaşımları kullanılması, çalışmaları birbiriyle kıyaslanabilir olmaktan çıkarıyor. Araştırmacılar, bu soruna çözüm olarak WorkRB adında açık kaynaklı bir değerlendirme platformu geliştirdi. Platform, iş alanına özel yapay zeka uygulamalarını test etmek için özel olarak tasarlandı ve topluluk odaklı bir yaklaşım benimsiyor. Bu çalışma, sektördeki parçalanmışlık sorununa çözüm getirerek, yapay zeka teknolojilerinin iş dünyasındaki performansını daha objektif şekilde değerlendirme imkanı sunuyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka Diş Hekimi Triajında Henüz İnsanları Geçemedi
Araştırmacılar, diş hekimliğinde hasta yönlendirme kararları için geliştirilmiş ilk kapsamlı test platformunu oluşturdular. Dental-TriageBench adlı bu sistem, gerçek hasta şikayetleri ve röntgen görüntülerini birleştirerek yapay zekanın diş hekimliği alanındaki karar verme yeteneklerini ölçüyor. 246 gerçek vaka üzerinde yapılan testlerde, 19 farklı yapay zeka modeli üç genç diş hekimiyle karşılaştırıldı. Sonuçlar, yapay zekanın özellikle karmaşık vakalarda ve birden fazla tedavi alanı gerektiren durumlarda insan hekimlerden geride kaldığını gösterdi. Bu çalışma, tıbbi karar verme süreçlerinde yapay zekanın mevcut sınırlarını ortaya koyarken, gelecekteki gelişmeler için önemli bir referans noktası oluşturuyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka 'Grokking' Gizeminin Çözümü: Problem Encoder-Decoder Darboğazında
Araştırmacılar, yapay zeka modellerinin matematik problemlerini çözerken yaşadığı 'grokking' fenomeninin nedenini keşfetti. Transformer modellerin eğitim verilerini öğrendikten sonra genelleme yapabilmesi arasında geçen uzun sürenin, bilgiyi işleyen encoder bölümünün öğrendiği yapıyı decoder bölümüne aktaramamasından kaynaklandığı ortaya çıktı. MIT araştırmacıları Collatz tahmin problemini kullanarak yaptıkları deneylerde, encoder'ın sayısal yapıları binlerce adımda öğrendiğini ancak çıktı doğruluğunun on binlerce adım boyunca şans seviyesinde kaldığını gözlemledi. Bu bulgular, AI modellerinin öğrenme süreçlerinin daha iyi anlaşılması ve optimize edilmesi açısından kritik önem taşıyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka Ajanları İçin Yeni Hafıza Mimarisi: Kristalleşme Modeli
Araştırmacılar, otonom yapay zeka ajanlarının önceki bilgileri kaybetmeden yeni yetenekler kazanabilmesi için Uyarlanabilir Hafıza Kristalleşmesi (AMC) adlı yenilikçi bir hafıza mimarisi geliştirdi. Bu sistem, insan beynindeki hafıza oluşum süreçlerinden ilham alarak deneyimleri üç aşamalı bir hiyerarşi ile organize ediyor. Dinamik ortamlarda çalışan AI ajanları için kritik bir sorun olan 'katastrofik unutma' problemine çözüm sunan bu yaklaşım, yapay zeka sistemlerinin sürekli öğrenme kapasitelerini önemli ölçüde artırabilir. Çalışma, hafızayı sıvı-cam-kristal fazları arasında geçiş yapan sürekli bir kristalleşme süreci olarak modelleyerek, deneyimlerin plastik durumdan kararlı duruma geçişini matematiksel olarak tanımlıyor.
arXiv (CS + AI) · 28 gün önce
1
Yapay Zeka Eğitiminde Devrim: Token Düzeyinde Gradient İptalinin Sırrı Çözüldü
Araştırmacılar, yapay zeka modellerinin uzun süreli eğitiminde karşılaşılan kritik sorunları çözen yeni bir yaklaşım geliştirdi. Çalışma, modellerin kendi içlerindeki karşılaştırmalı öğrenme sürecinde yaşanan 'öğrenme vergisi', çözüm olasılığı kayması ve entropi çöküşü gibi problemlerin temel nedenini ortaya koyuyor. Token düzeyindeki kredi atama perspektifinden hareketle, araştırmacılar gradient değiştirilebilirliğinin korunması gerektiğini ve bu sayede zayıf kredili tokenlarda gradient iptalinin sağlanabileceğini gösterdi. Bu keşif, yapay zeka modellerinin daha kararlı ve verimli eğitilmesi için yeni bir yol açıyor.
arXiv (CS + AI) · 28 gün önce
0