"mantıksal düşünme" için 193 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
193 haber
Yapay zeka modelleri artık akıllıca düşünmeyi öğreniyor: ORBIT sistemi geliyor
Büyük yapay zeka modelleri güçlü performans sergilemek için uzun düşünce zincirleri kullanıyor, ancak bu her zaman gereksiz hesaplama maliyeti yaratıyor. Stanford ve diğer kurumlardan araştırmacılar, yapay zekanın ne kadar 'düşüneceğini' akıllıca belirleyen ORBIT sistemini geliştirdi. Bu yenilikçi yaklaşım, AI modellerinin farklı zorluk seviyelerindeki problemler için en uygun düşünce stratejisini seçmesine olanak tanıyor. Sistem, pekiştirmeli öğrenme kullanarak her çaba seviyesi için en verimli çözüm yollarını keşfediyor ve kullanıcıların maliyet-doğruluk dengesini istedikleri gibi ayarlamalarına imkan veriyor. Bu gelişme, AI sistemlerinin daha verimli ve esnek hale gelmesinde önemli bir adım.
arXiv (CS + AI) · 26 gün önce
0
Yapay Zeka Artık Sadece İzlemiyor, Aktif Olarak Sorgulayarak Öğreniyor
Araştırmacılar, görsel-dil modellerinin en büyük sorunlarından birini çözen yeni bir yaklaşım geliştirdi. V-Reflection adlı bu sistem, yapay zekanın görsel bilgiyi pasif olarak kabul etmek yerine, düşünme sürecinde aktif olarak yeniden incelemesini sağlıyor. Geleneksel modeller görüntüleri sabit bir veri olarak kabul ederken, yeni yaklaşım 'önce düşün, sonra bak' mantığıyla çalışıyor. Bu sayede AI, her düşünce adımında görsel detayları tekrar sorgulayarak daha doğru sonuçlara ulaşabiliyor. Özellikle ince detay gerektiren görevlerde yapay zekanın 'halüsinasyon' yapma sorununu büyük ölçüde azaltıyor. İki aşamalı bir öğrenme stratejisi kullanan sistem, görsel özellik alanını dinamik olarak sorgulayan problar geliştiriyor. Bu gelişme, multimodal AI sistemlerinin güvenilirliğini artırmada önemli bir adım.
arXiv (CS + AI) · 26 gün önce
0
Yapay Zeka Modelleri Artık Görsel ve Metinsel Bilgileri Daha Hızlı İşleyebilecek
Araştırmacılar, yapay zeka modellerinin görsel ve metinsel bilgileri birlikte işleme kapasitesini artıran yeni bir yöntem geliştirdi. Çalışma, mevcut çok modlu AI sistemlerinin görsel verileri yetersiz işlediğini ve karmaşık görevlerde zorlandığını ortaya koyuyor. Geliştirilen 'görsel tekrar modülü' ve 'derinlik ölçeklendirme' teknikleri, modellerin hem görüntüleri daha iyi anlamasını hem de karmaşık mantıksal işlemleri daha hızlı gerçekleştirmesini sağlıyor. Bu yenilik, özellikle görsel soru cevaplama sistemleri ve akıllı asistanlar için önemli performans artışları vaat ediyor.
arXiv (CS + AI) · 26 gün önce
0
Büyük Dil Modelleri İçin Kritik Düşünme Savunması Geliştirildi
Araştırmacılar, büyük dil modellerinin akıl yürütme süreçlerine yönelik gizli saldırılara karşı yeni bir savunma mekanizması geliştirdi. Critical-CoT adlı bu sistem, modellerin düşünce zincirlerine zararlı adımlar enjekte eden sofistike saldırıları tespit edebiliyor. Geleneksel saldırılar genellikle belirli kelimeleri tetikleyerek modeli yanlış cevap vermeye zorlarken, yeni nesil saldırılar modelin mantıklı görünen ama aslında manipüle edilmiş akıl yürütme süreçleri üretmesini sağlıyor. Bu tür saldırılar, mantıklı görünmeleri nedeniyle tespit edilmesi çok zor. Critical-CoT, iki aşamalı bir ince ayar süreci kullanarak modellere eleştirel düşünme becerileri kazandırıyor ve böylece manipüle edilmiş akıl yürütme adımlarını fark etmelerini sağlıyor. Bu gelişme, yapay zeka güvenliği alanında önemli bir adım olarak değerlendiriliyor.
arXiv (CS + AI) · 26 gün önce
0
Büyük Dil Modelleri Karmaşık Mantık Sorunlarında Sınırlarına Çarpıyor
Araştırmacılar, büyük dil modellerinin (LLM) mantıksal akıl yürütme yeteneklerini sistematik olarak test eden kapsamlı bir çalışma yürüttü. Sudoku, Hanoi Kulesi ve Rubik Küpü gibi dokuz klasik mantık problemiyle yapılan testlerde, modellerin problem karmaşıklığı arttıkça performanslarının belirgin şekilde düştüğü gözlemlendi. Çalışma, mevcut değerlendirme yöntemlerinin yetersizliğini ortaya koyarak, modellerin gerçek akıl yürütme kapasitelerini ölçmek için kontrollü test ortamları geliştirdi. Bu bulgular, yapay zeka sistemlerinin karmaşık mantıksal problemlerde henüz önemli sınırlarının bulunduğunu gösteriyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka Tablolar İçin İnsansı Mantık Yürütmeyi Öğreniyor
Araştırmacılar, tablo verilerini analiz etmek için yeni bir yapay zeka sistemi geliştirdi. ReSS adlı bu sistem, sembolik mantık ile büyük dil modellerini birleştirerek hem yüksek doğruluk hem de anlaşılır açıklamalar sunuyor. Sistem, karar ağaçlarından elde edilen mantıksal yolları kullanarak, yapay zekanın verdiği kararları insan dilinde açıklayabiliyor. Sağlık ve finans gibi kritik alanlarda kullanılmak üzere tasarlanan bu yaklaşım, yapay zekanın şeffaflık sorununa önemli bir çözüm getiriyor. Geleneksel sembolik modellerin katı mantığı ile modern dil modellerinin esnekliğini harmanlayan sistem, özellikle hassas kararlar gerektiren uygulamalar için büyük önem taşıyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka Modellerinde Belirsizlik Nasıl Ölçülür?
Büyük akıl yürütme modellerinin (LRM'ler) karmaşık problemleri çözmedeki başarısı arttıkça, bu sistemlerin ne kadar 'emin' oldukları kritik bir soru haline geliyor. Araştırmacılar, geleneksel belirsizlik ölçüm yöntemlerinin yetersiz kaldığını ve akıl yürütme sürecini göz ardı ettiğini keşfetti. Yeni geliştirilen konformal tahmin yöntemi, yapay zekanın mantıksal çıkarım kalitesi ile nihai cevabın doğruluğu arasındaki farkı ayırt edebiliyor. Bu gelişme, yapay zeka sistemlerinin güvenilirliğinin artırılması ve belirsizlik yönetimi açısından büyük önem taşıyor.
arXiv (CS + AI) · 28 gün önce
0
Çok Modlu Yapay Zeka Neden Geride Kalıyor? İç Mekanizmalar Araştırıldı
Yapay zeka modellerinin yeni görevleri örneklerden öğrenmesini sağlayan 'bağlam içi öğrenme' yöntemi, sadece metinle çalışırken başarılı olsa da görsel ve metinsel verileri birlikte işlerken zorlanıyor. Araştırmacılar, çok modlu büyük dil modellerinin neden tek modal karşılıklarından daha zayıf performans sergilediğini sistematik olarak inceledi. Bulgular, mevcut modellerin görsel ve metinsel temsiller arasında mantıksal düzeyde yeterli hizalamaya sahip olmadığını ve öğrenilen görev eşlemelerini güvenilir şekilde aktaramadığını gösteriyor. Bu keşif, yapay zeka sistemlerinin farklı veri türlerini daha etkili şekilde birleştirmesi için gereken iyileştirmelere ışık tutuyor.
arXiv (CS + AI) · 28 gün önce
0
Gürültülü Web Ortamında Çoklu Kanıt Toplayan Yapay Zeka Test Platformu
Araştırmacılar, yapay zeka sistemlerinin gerçek web ortamındaki karmaşık arama görevlerini ne kadar iyi yerine getirdiğini ölçmek için MERRIN adlı yeni bir test platformu geliştirdi. Bu platform, AI ajanlarının metin, görsel, ses ve video gibi farklı veri türlerini bir araya getirerek çok adımlı mantıksal çıkarımlar yapabilme yeteneklerini değerlendiriyor. Geleneksel test sistemlerinden farklı olarak, belirsiz doğal dil sorguları kullanıyor ve çelişkili bilgilerin bulunduğu gürültülü web ortamlarını simüle ediyor. GPT ve Gemini gibi güçlü kapalı kaynak modellerden açık kaynak alternatiflere kadar on farklı AI modeli üzerinde yapılan testler, mevcut sistemlerin gerçek dünya koşullarındaki sınırlarını ortaya çıkarıyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka Doğru Düşünüyor Ama Yanlış Sonuca Varıyor
Araştırmacılar büyük dil modellerinin mantıksal adımları doğru şekilde izleyip yanlış sonuca vardığını keşfetti. Geliştirilen Novel Operator Test, modellerin gerçek mantık yürütme ile örüntü ezberleme arasındaki farkı ortaya çıkarıyor. Claude Sonnet gibi gelişmiş modeller bile derinlemesine mantık zincirlerinde sistematik hatalar yapıyor. Bu bulgular, AI sistemlerinin düşünme sürecinin çıktılarından farklı işlediğini gösteriyor ve mevcut değerlendirme yöntemlerinin yetersizliğini ortaya koyuyor.
arXiv (CS + AI) · 28 gün önce
0
Yapay Zeka Öğrenmesinde Yeni Yaklaşım: Örtük Ödül Modellerinin Güvenilirliği Artırıldı
Araştırmacılar, yapay zekanın mantıksal çıkarım süreçlerini değerlendiren ödül modellerindeki temel bir sorunu çözdü. Geleneksel yöntemler, AI'nin her adımını ayrı ayrı puanlarken tutarsızlıklar yaşıyordu - eğitim sırasında sadece genel sonucu gözetirken, kullanım sırasında her adımı tek tek değerlendirmek zorundaydı. Bu durum, modelin hangi mantık adımlarının doğru olduğunu güvenilir şekilde belirleyememesine neden oluyordu. Yeni geliştirilen 'Örtük Önek-Değer Ödül Modeli' bu sorunu çözerek, AI sistemlerinin daha tutarlı ve güvenilir şekilde öğrenmesini sağlıyor. Bu gelişme, özellikle karmaşık problem çözme gerektiren AI uygulamaları için önemli bir adım.
arXiv (CS + AI) · 28 gün önce
0