"schema optimization" için 9 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
9 haber
Yapay Zeka Ajanları İçin Yeni Öğrenme Yöntemi: Kritik Adım Optimizasyonu
Araştırmacılar, büyük dil modeli ajanlarının karmaşık görevlerde daha etkili öğrenmesi için yenilikçi bir yöntem geliştirdi. Critical Step Optimization (CSO) adı verilen bu teknik, geleneksel yöntemlerin aksine başarısız deneyimlerden yola çıkarak öğrenmeyi sağlıyor. Sistem, görevin başarısızlıktan başarıya dönüştüğü kritik karar noktalarını tespit ediyor ve öğrenmeyi bu noktalara odaklıyor. Bu yaklaşım, hem hesaplama maliyetini düşürüyor hem de daha etkili öğrenme sunuyor. Özellikle uzun vadeli planlaması gereken karmaşık görevlerde yapay zeka ajanlarının performansını artırma potansiyeli taşıyan bu yöntem, AI sistemlerinin eğitiminde önemli bir adım olabilir.
arXiv (Dilbilim & NLP) · 15 gün önce
0
Hindi Haber Doğrulama: Yapay Zeka Dezenformasyonla Savaşacak
Araştırmacılar, Hindi dilinde yayılan dezenformasyonla mücadele etmek için yenilikçi bir yapay zeka sistemi geliştirdi. Direct Preference Optimization (DPO) ve müfredat öğrenmesi teknikleriyle çalışan bu sistem, makine tarafından üretilen açıklamaları insan mantığıyla uyumlu hale getiriyor. Hindi gibi kaynak azlığı yaşanan diller için özel olarak tasarlanan framework, güvenilir kaynaklardan alınan doğru bilgileri tercih edilen yanıtlar olarak kullanırken, yetersiz sistem çıktılarını da öğrenme materyali haline getiriyor. Mistral, Llama ve Gemma gibi büyük dil modelleriyle yapılan testler, sistemin tutarlı ve bağlama uygun açıklamalar üretebileceğini kanıtladı. Bu gelişme, küresel çapta artan dezenformasyon tehdidine karşı önemli bir adım.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Modellerinin Mantık Yürütme Becerilerini Artıran Yeni Algoritma: MCPO
Araştırmacılar, büyük dil modellerinin mantık yürütme yeteneklerini geliştirmek için MCPO (Mastery-Consolidated Policy Optimization) adlı yeni bir algoritma geliştirdi. Bu yaklaşım, mevcut GRPO algoritmalarının yüksek doğruluklu sorularda yaşadığı iki kritik sorunu çözmeyi hedefliyor. Özellikle tam olarak çözülen sorularda eğitim sinyalinin kaybolması ve kısmen doğru cevaplanan sorularda öğrenme kapasitesinin zayıflaması problemlerini ele alıyor. MCPO, doğrulanabilir ödüllerle pekiştirmeli öğrenme çerçevesinde çalışarak, AI modellerinin hem öğrendiği bilgileri unutmamasını sağlıyor hem de kısmi doğruluklardan tam ustalığa geçişi güçlendiriyor. Bu gelişme, yapay zeka sistemlerinin karmaşık problemlerde daha tutarlı ve güvenilir performans göstermesi açısından önemli bir adım teşkil ediyor.
arXiv (CS + AI) · 24 gün önce
0
Görsel-Dil AI'ları için Yeni Eğitim Yöntemi: S-GRPO
Araştırmacılar, büyük görsel-dil modellerinin eğitiminde karşılaşılan temel sorunları çözen yeni bir yaklaşım geliştirdi. Mevcut yöntemler ya modelin genel yeteneklerini unutmasına ya da optimizasyon çöküşüne neden oluyordu. Supervised Group Relative Policy Optimization (S-GRPO) adlı yeni framework, denetimli öğrenme ile pekiştirmeli öğrenmeyi birleştirerek bu sorunları aşıyor. Bu gelişme, görsel içeriği anlayabilen ve metinle etkileşim kurabilen yapay zeka sistemlerinin daha verimli eğitilmesi açısından önemli bir adım.
arXiv (Dilbilim & NLP) · 24 gün önce
0
Trafik yönetiminde akıllı gişe ücretlendirmesi: Belirsizliklere karşı dayanıklı çözüm
Araştırmacılar, trafik ağlarındaki tıkanıklıkları azaltmak için geliştirdikleri yeni matematiksel modelle, belirsizliklere karşı dayanıklı ücret politikaları tasarlayabiliyor. Çalışma, gerçek trafik verilerindeki belirsizlikleri göz önünde bulundurarak, geleneksel yöntemlerden daha etkin sonuçlar üreten bir yaklaşım sunuyor. Sistem operatörleri genellikle sürücüleri daha az yoğun yollara yönlendirmek için parasal teşvikler kullanır, ancak trafik modellerindeki belirsizlikler bu stratejilerin başarısını etkiler. Yeni geliştirilen distributionally robust optimization yaklaşımı, en kötü senaryoları dikkate alarak daha güvenilir çözümler üretiyor. Tek başlangıç-varış noktası olan ağlarda, afin gecikme fonksiyonları kullanan bu yöntem konveks programlama ile çözülebiliyor. Sayısal simülasyonlar, belirsizliklere karşı tasarlanan bu ücret politikalarının, sabit modeller kullanan geleneksel yaklaşımlardan sistem geneli performansında daha iyi sonuçlar verdiğini gösteriyor.
arXiv — Bilgisayar Sistemleri · 24 gün önce
0
Yapay Zeka Ajanlarını Eğitmenin Yeni Yolu: MHGPO Algoritması
Araştırmacılar, büyük dil modellerini (LLM) temel alan çok-ajan arama sistemlerini optimize etmek için yeni bir yöntem geliştirdi. Multi-Agent Heterogeneous Group Policy Optimization (MHGPO) adlı bu algoritma, farklı uzmanlık alanlarına sahip yapay zeka ajanlarının birlikte çalışmasını daha verimli hale getiriyor. Geleneksel yöntemlerin aksine, MHGPO her ajanın farklı rollerini göz önünde bulundurarak öğrenme sürecini optimize ediyor. Bu yaklaşım, özellikle karmaşık problemleri çözmek için birden fazla uzman ajan gereken durumlarda önemli avantajlar sunuyor. Sistem, ajanlar arasındaki işbirliğini artırırken hesaplama maliyetlerini de düşürmeyi başarıyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Modelleri Artık Prolog ile Mantıksal Çıkarım Yapabiliyor
Araştırmacılar, dil modellerinin sıklıkla makul görünen ama yanlış mantık yürütme süreçleri üretme sorununun üstesinden gelmek için yenilikçi bir yaklaşım geliştirdi. Qwen2.5-3B-Instruct modeli, Prolog programlama dilini harici bir sembolik mantık aracı olarak kullanmak üzere eğitildi. Bu süreçte Group Relative Policy Optimization (GRPO) yöntemiyle pekiştirmeli öğrenme kullanıldı. Sonuçlar oldukça etkileyici: 3 milyar parametreli model, MMLU-STEM ve MMLU-Pro testlerinde 7 milyar parametreli modellerin performansına yakın başarı gösterdi. Ancak araştırma önemli bir ödünleşme ortaya çıkardı: sadece doğruluk için optimize edilen yapılandırmalar, mantık yürütmeyi doğal dile devredip Prolog'u sadece son hesaplama için kullanırken, diğer yapılandırmalar daha şeffaf mantık süreçleri üretiyor. Bu çalışma, AI sistemlerinin hem daha doğru hem de denetlenebilir olması yolunda önemli bir adım.
arXiv (CS + AI) · 24 gün önce
0
AI'da Kişiselleştirme Devrimi: Birkaç Örnekle Kullanıcıya Özel Yapay Zeka
Araştırmacılar, yapay zeka modellerinin kullanıcıların tercihlerini sadece birkaç örnekle öğrenebilmesini sağlayan yeni bir yöntem geliştirdi. FSPO (Few-Shot Preference Optimization) adlı bu teknik, büyük dil modellerinin her kullanıcı için özelleştirilmiş ödül fonksiyonları öğrenmesini mümkün kılıyor. Sistemin gerçek dünyada test edilmesi için araştırmacılar 1 milyon sentetik tercih verisi üretti. Bu gelişme, sanal asistanlardan içerik önerilerine kadar birçok AI uygulamasında kişiselleştirmeyi büyük ölçüde iyileştirebilir. Çalışma, yapay zekanın bireysel kullanıcı ihtiyaçlarına uyum sağlamasında önemli bir adım olarak değerlendiriliyor.
arXiv (CS + AI) · 25 gün önce
0