"interaktif öğrenme" için 1955 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
1955 haber
Yapay Zeka Hayvan Haklarını Öğreniyor: Yeni Eğitim Yöntemi Geliştirild
Araştırmacılar, yapay zeka sistemlerinin hayvan refahını dikkate alacak şekilde eğitilmesi için yenilikçi bir yöntem geliştirdi. Dokümana dayalı eğitim yaklaşımı, geleneksel talimat verme yöntemlerine kıyasla çok daha başarılı sonuçlar verdi. Hayvan Zarar Kıyaslama Ölçeği adlı 26 soruluk test sistemi ile değerlendirilen bu yöntem, yapay zekanın etik değerleri öğrenmesi konusunda umut verici sonuçlar ortaya koydu. Çalışma, AI sistemlerinin sadece güvenli olmakla kalmayıp aynı zamanda hayvan refahı gibi önemli değerleri de içselleştirmesi gerektiğini vurguluyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Hizalaması: Davranış Kontrolünden Kurumsal Tasarıma
Stanford araştırmacıları yapay zeka güvenliği için yeni bir yaklaşım önerdi. Mevcut yöntemler yapay zekanın davranışlarını sürekli denetleyerek düzeltmeye odaklanırken, bu çalışma ekonomik kuramlardan ilham alarak farklı bir yol öneriyor. Araştırmacılar, mülkiyet hakkının olmadığı bir ekonomiye benzettiği mevcut sistemlerin sürekli polis denetimi gerektirdiğini ve bu durumun ölçeklenmediğini belirtiyor. Bunun yerine, yapay zeka sistemlerinin iç yapısını öyle tasarlama öneriyorlar ki, istenen davranış en düşük maliyetli seçenek haline gelsin. Bu yaklaşım, yapay zeka hizalamasını bir davranış kontrolü sorunundan ziyade politik-ekonomi sorunu olarak görüyor. Çalışma, insan müdahalesinin üç temel seviyesini tanımlıyor: yapısal, parametrik ve denetimsel. Bu yeni framework, yapay zeka güvenliğinde paradigma değişikliği yaratabilir.
arXiv (CS + AI) · 29 gün önce
0
Yapay Sinir Ağlarında Seçici Ölçüm Devrim Yaratıyor
Araştırmacılar, yapay zeka eğitiminde kullanılan Forward-Forward algoritmasını önemli ölçüde geliştiren yeni bir yaklaşım keşfetti. Geleneksel yöntemlerin aksine, tüm nöronları değerlendirmek yerine sadece en aktif olanları seçen 'top-k iyilik' fonksiyonu, Fashion-MNIST veri setinde %22,6 oranında daha yüksek doğruluk sağladı. Bu yenilikçi yaklaşım, beynin çalışma mantığına daha yakın olan Forward-Forward algoritmasının performansını dramatik şekilde artırarak, yapay zeka eğitiminde yeni ufuklar açıyor. Çalışma, hangi nöron aktivasyonlarının ölçülmesi ve nasıl bir araya getirilmesi gerektiği konusunda sistematik bir analiz sunuyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka 'Grokking' Gizeminin Çözümü: Problem Encoder-Decoder Darboğazında
Araştırmacılar, yapay zeka modellerinin matematik problemlerini çözerken yaşadığı 'grokking' fenomeninin nedenini keşfetti. Transformer modellerin eğitim verilerini öğrendikten sonra genelleme yapabilmesi arasında geçen uzun sürenin, bilgiyi işleyen encoder bölümünün öğrendiği yapıyı decoder bölümüne aktaramamasından kaynaklandığı ortaya çıktı. MIT araştırmacıları Collatz tahmin problemini kullanarak yaptıkları deneylerde, encoder'ın sayısal yapıları binlerce adımda öğrendiğini ancak çıktı doğruluğunun on binlerce adım boyunca şans seviyesinde kaldığını gözlemledi. Bu bulgular, AI modellerinin öğrenme süreçlerinin daha iyi anlaşılması ve optimize edilmesi açısından kritik önem taşıyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Ajanları İçin Yeni Hafıza Mimarisi: Kristalleşme Modeli
Araştırmacılar, otonom yapay zeka ajanlarının önceki bilgileri kaybetmeden yeni yetenekler kazanabilmesi için Uyarlanabilir Hafıza Kristalleşmesi (AMC) adlı yenilikçi bir hafıza mimarisi geliştirdi. Bu sistem, insan beynindeki hafıza oluşum süreçlerinden ilham alarak deneyimleri üç aşamalı bir hiyerarşi ile organize ediyor. Dinamik ortamlarda çalışan AI ajanları için kritik bir sorun olan 'katastrofik unutma' problemine çözüm sunan bu yaklaşım, yapay zeka sistemlerinin sürekli öğrenme kapasitelerini önemli ölçüde artırabilir. Çalışma, hafızayı sıvı-cam-kristal fazları arasında geçiş yapan sürekli bir kristalleşme süreci olarak modelleyerek, deneyimlerin plastik durumdan kararlı duruma geçişini matematiksel olarak tanımlıyor.
arXiv (CS + AI) · 29 gün önce
1
Yapay Zeka Eğitiminde Devrim: Token Düzeyinde Gradient İptalinin Sırrı Çözüldü
Araştırmacılar, yapay zeka modellerinin uzun süreli eğitiminde karşılaşılan kritik sorunları çözen yeni bir yaklaşım geliştirdi. Çalışma, modellerin kendi içlerindeki karşılaştırmalı öğrenme sürecinde yaşanan 'öğrenme vergisi', çözüm olasılığı kayması ve entropi çöküşü gibi problemlerin temel nedenini ortaya koyuyor. Token düzeyindeki kredi atama perspektifinden hareketle, araştırmacılar gradient değiştirilebilirliğinin korunması gerektiğini ve bu sayede zayıf kredili tokenlarda gradient iptalinin sağlanabileceğini gösterdi. Bu keşif, yapay zeka modellerinin daha kararlı ve verimli eğitilmesi için yeni bir yol açıyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Şehir Trafiğini İnsan Mantığıyla Yönetmeyi Öğreniyor
Araştırmacılar, şehir trafiğini daha akıllı yönetebilmek için yeni bir yapay zeka sistemi geliştirdi. C2T adlı bu sistem, büyük dil modellerinden 'sağduyu' bilgisini öğrenerek trafik ışıklarını ve otonom araçları koordine ediyor. Geleneksel sistemler sadece kavşak yoğunluğu gibi basit metriklere odaklanırken, yeni sistem güvenlik, trafik akışının istikrarı ve sürüş konforu gibi insan odaklı hedefleri de göz önünde bulunduruyor. Çoklu kavşaklarda yapılan testlerde, mevcut en iyi yöntemlere kıyasla trafik verimliliği ve güvenlikte önemli iyileştirmeler sağlandı.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka'nın 'Grokking' Sırrı: Spektral Entropi ile Tahmin Edilebilir Hale Geldi
MIT araştırmacıları, yapay zekanın geç öğrenme fenomeni olan 'grokking'i tahmin edebilecek yeni bir yöntem keşfetti. Grokking, yapay zeka modellerinin önce bilgiyi ezberleyip, çok daha sonra gerçek anlamda öğrenmeye başladığı ilginç bir durumdur. Araştırmacılar, spektral entropi adı verilen matematiksel bir ölçümün, bu geçişi %100 başarıyla önceden tahmin edebildiğini gösterdi. Bu keşif, yapay zeka modellerinin nasıl öğrendiğini anlamamızda büyük bir adım ve gelecekte daha verimli AI sistemleri geliştirmemize yardımcı olabilir. Çalışma, Transformer modellerinde yapılan deneylerle doğrulandı.
arXiv (CS + AI) · 29 gün önce
0
Yapay Veri Üreticileri Dolandırıcılık Kalıplarını Taklit Etmekte Başarısız
Araştırmacılar, yapay zeki sistemlerin ürettiği sentetik verilerin gerçek dolandırıcılık davranışlarını yansıtmadığını ortaya koydu. Çalışma, mevcut yapay veri üreticilerinin istatistiksel özellikleri koruyabildiğini ancak dolandırıcıların karakteristik davranış kalıplarını yakalayamadığını gösteriyor. Bu durum, finansal güvenlik sistemlerinin geliştirilmesinde ciddi bir engel oluşturuyor. Araştırma ekibi, davranışsal sadakat adını verdikleri yeni bir değerlendirme boyutu tanımlayarak, yapay verilerin gerçek dünyadaki varlık aktivitelerinin zamansal ve yapısal kalıplarını ne ölçüde koruduğunu ölçmeyi hedefliyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Modelleri Artık Öğrendiklerini Seçerek Unutabilecek
Araştırmacılar, derin öğrenme modellerinin belirli bilgileri seçici ve güvenli şekilde unutmasını sağlayan yeni bir algoritma geliştirdi. Graph-Propagated Projection Unlearning (GPPU) adlı bu yöntem, görüntü ve ses işleme modellerinde istenmeyen sınıf bilgilerini kalıcı olarak silmeyi mümkün kılıyor. Sistem, graf tabanlı yayılım kullanarak özellik uzayında sınıfa özgü yönleri tespit ediyor ve bu bilgileri dik alt uzaya yansıtarak etkisiz hale getiriyor. Altı görüntü veri seti ve iki büyük ses veri seti üzerinde yapılan testlerde, GPPU'nun mevcut yöntemlere göre 10-20 kat daha hızlı çalıştığı ve hem CNN hem de Transformer mimarilerinde başarılı sonuçlar verdiği görüldü. Bu gelişme, veri mahremiyeti düzenlemeleri ve uyarlanabilir sistem tasarımı açısından büyük önem taşıyor.
arXiv (CS + AI) · 29 gün önce
0
Yapay Zeka Sistemler İçin Sorumluluk Paylaşımı Modeli Geliştirildi
Araştırmacılar, çoklu ajan sistemlerinde sorumluluk dağılımının nasıl yapılacağını öğrenen yeni bir yapay zeka modeli geliştirdi. İnsanların etkileşimli ortamlarda kendi hedeflerinden ne kadar taviz vererek başkalarına uyum sağladığını anlayan bu sistem, sosyal olarak uyumlu ve güvenilir otonom teknolojiler tasarlamak için kritik bir adım. Model, belirsizlikleri de hesaba katarak farklı senaryolarda sorumluluk paylaşımının nasıl gerçekleştiğini öğreniyor. Bu yaklaşım, özellikle güvenliğin kritik olduğu durumları dikkate alarak, yapay zeka sistemlerinin insan davranışlarını daha iyi anlamasını sağlıyor.
arXiv (CS + AI) · 29 gün önce
0