"mantık" için 262 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
262 haber
Yapay Zeka Diyalog Sistemleri Nesne Tanımalarında Daha Akıllı Hale Geliyor
Araştırmacılar, görev odaklı diyalog sistemlerinin nesne referanslarını anlama yeteneğini geliştiren yeni bir yöntem önerdi. Büyük dil modellerinin nesne açıklamaları üzerinde mantıksal çıkarım yapmasını sağlayan bu yaklaşım, özellikle karmaşık görsel ortamlarda chatbot'ların hangi nesneden bahsedildiğini daha doğru tespit etmesini mümkün kılıyor. SIMMC 2.1 veri seti üzerinde yapılan testler, bu yöntemin geleneksel supervised öğrenme modellerinin aksine farklı alanlarda daha iyi genelleme yapabildiğini gösteriyor. Sistem, adım adım mantıksal süreçler oluşturarak kullanıcının kastettiği nesneyi daha başarılı şekilde belirleyebiliyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 14 gün önce
0
Yapay Zeka Akıl Yürütmesinde Yeni Yaklaşım: Gizli Mantığın Güçlendirilmesi
Araştırmacılar, yapay zekanın akıl yürütme sürecini daha verimli hale getirmek için gizli mantık yaklaşımını geliştirdi. Geleneksel yöntemler adım adım açık mantık zincirleri kullanırken, yeni teknik ara adımları sürekli matematiksel temsillere sıkıştırarak süreci kısaltıyor. Ancak bu alandaki pekiştirmeli öğrenme yöntemleri kararsızlık sorunları yaşıyordu. Stanford ve diğer kurumlardan bilim insanları, Grup Göreceli Politika Optimizasyonu (GRPO) tekniğini gizli mantık sistemlerine uyarlayarak bu zorluğu aştı. Çalışma, yapay zekanın daha hızlı ve etkili düşünmesi için önemli bir adım niteliğinde.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 14 gün önce
0
PRISM: Yapay Zekada Çoklu Ortam Öğrenmesi İçin Yeni Eğitim Yöntemi
Araştırmacılar, büyük çoklu ortam modellerinin (görsel ve metinsel verileri birlikte işleyen AI sistemler) eğitiminde karşılaşılan temel bir sorunu çözmek için PRISM adlı yeni bir yaklaşım geliştirdi. Mevcut eğitim süreçlerinde modeller, başlangıçtaki yeteneklerini kaybetme ve istenmeyen davranış değişiklikleri gösterme eğiliminde. PRISM, bu sorunu üç aşamalı bir süreçle çözüyor: önce denetimli öğrenme, ardından dağılım hizalama ve son olarak pekiştirmeli öğrenme. Sistem, algısal hatalar ve mantıksal başarısızlıkları ayrı ayrı ele alan uzman modüller kullanarak, AI'ın hem görme hem de muhakeme becerilerini daha dengeli şekilde geliştiriyor. Bu yaklaşım, özellikle görsel-metinsel çoklu ortam görevlerinde modellerin performansını artırarak, gelecekteki AI sistemlerinin daha güvenilir olmasına katkıda bulunabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 14 gün önce
0
Yapay Zeka Finansal Analiz Zayıflıklarını Ortaya Çıkaran Yeni Test Geliştirildi
Araştırmacılar, yapay zeka modellerinin finansal analiz yeteneklerini değerlendirmek için FinChain adlı yeni bir test sistemi geliştirdi. Mevcut testler sadece nihai cevaplara odaklanırken, FinChain yapay zekanın adım adım mantıksal düşünme sürecini de denetliyor. 12 farklı finansal alandan 58 konuyu kapsayan bu sistem, yapay zekanın her hesaplama adımını Python kodu ile doğrulayabiliyor. 26 önde gelen yapay zeka modelinin değerlendirildiği çalışmada, en gelişmiş modellerin bile finansal muhakemede önemli eksiklikleri olduğu ortaya çıktı. Bu bulgular, finansal kararların yapay zeka destekli sistemlere bırakılmadan önce dikkatli değerlendirme yapılması gerektiğini gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 14 gün önce
0
Yapay Zeka Modellerinin Akıl Yürütme Becerisi İçin Yeni Değerlendirme Yöntemi
Araştırmacılar, büyük dil modellerinin matematiksel ve mantıksal problemleri çözerken hangi çözüm yolunun doğru olduğunu belirlemek için PiCSAR adlı yeni bir yöntem geliştirdi. Bu yöntem, modelin ürettiği akıl yürütme zincirini ve nihai cevabı birlikte değerlendirerek doğru çözümü seçiyor. Geleneksel yöntemlere göre yarı yarıya daha az örnekle daha yüksek başarı elde eden PiCSAR, yapay zekanın problem çözme kapasitesini artırmada önemli bir adım. MATH500 testinde 10.18, AIME2025'te ise 9.81 puan artış sağlayan bu yaklaşım, doğru akıl yürütme zincirlerinin daha yüksek güven skoru gösterdiğini ortaya koyuyor. Ek eğitim gerektirmemesi nedeniyle pratik uygulamalarda kolayca kullanılabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 14 gün önce
0
Çoklu Modaliteli AI Sistemlerinde Akıl Yürütmenin Gizli Engelleri Keşfedildi
Yapay zeka araştırmacıları, metin, görsel ve ses gibi farklı veri türlerini birleştiren çoklu modaliteli büyük dil modellerinin (MLLM) akıl yürütme performansını detaylı olarak inceledi. Araştırma, ek modalitelerin her zaman performansı artırmadığını, hatta bazen zararlı olabileceğini ortaya koydu. Altı farklı etkileşim paternini analiz eden yeni bir değerlendirme çerçevesi geliştiren bilim insanları, modalitelerin bağımsız ve yeterli akıl yürütme yolları sağladığında performansı artırdığını, ancak gereksiz veya zincirleme mantıksal bağlantıların performansı düşürdüğünü keşfetti. Bu bulgular, AI sistemlerinin farklı veri türlerini nasıl işlediğini anlamamızı derinleştiriyor ve gelecekteki çoklu modaliteli AI sistemlerinin tasarımında kritik önem taşıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 14 gün önce
0
Yapay Zeka Modellerinin Karar Verme Önyargıları Yeni Yöntemle Azaltılıyor
Büyük dil modelleri çoktan seçmeli sorularda ve karşılaştırma görevlerinde seçenek sırası gibi anlamsız faktörlerden etkilenerek önyargılı davranabilir. Araştırmacılar, bu sorunu çözmek için PA-GRPO adlı yeni bir yöntem geliştirdi. Bu teknik, modelin aynı soruya farklı seçenek sıralarında tutarlı cevaplar vermesini sağlayarak karar verme sürecini iyileştiriyor. Geleneksel yöntemler pahalı ve mantıksal düşünceye zarar verebilirken, yeni yaklaşım modeli eğitim sırasında optimize ederek daha güvenilir sonuçlar elde ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 14 gün önce
0
Yapay Zeka Modellerinin Aşırı Güven Sorunu İçin Yeni Çözüm: DCPO Yöntemi
Büyük dil modellerinin mantıksal muhakeme yeteneklerini artıran RLVR yöntemi, modellerin yanlış cevaplarda bile aşırı güvenli olması sorununa yol açıyor. Araştırmacılar, bu sorunu çözmek için DCPO adlı yeni bir yaklaşım geliştirdi. Yöntem, muhakeme ve güven kalibrasyonu süreçlerini birbirinden ayırarak, modellerin hem doğru cevap verme hem de gerçekçi güven seviyeleri gösterme kabiliyetini dengeliyor. Bu çalışma, yapay zekanın güvenilirliği açısından önemli bir adım teşkil ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 14 gün önce
0
Yapay zeka modelleri stres altında insanlar gibi düşünüyor
Araştırmacılar, GPT-4o ve diğer dil modellerinin bilişsel kaynaklarının kısıtlandığında cümle anlama stratejilerinin nasıl değiştiğini inceledi. İkili görev paradigması adı verilen yöntemle modellere aynı anda matematik ve dil anlama görevleri verildi. Sonuçlar, bu stresli koşullarda yapay zeka modellerinin insanlara benzer şekilde mantıklı çıkarım stratejilerine yöneldiğini gösterdi. Modeller, mantıklı cümleler ile mantıksız cümleler arasında daha belirgin doğruluk farkları sergilemeye başladı. Bu bulgular, yapay zekanın insan benzeri bilişsel davranışlar gösterebilmesi için kaynak kısıtlamalarının önemini ortaya koyuyor.
arXiv (Dilbilim & NLP) · 15 gün önce
0
Yapay Zeka Modellerinin Düşünme Süreçleri %8 Oranında Hızlandırıldı
Araştırmacılar, büyük dil modellerinin mantıksal çıkarım süreçlerinde kullandığı token'ları analiz ederek önemli bir keşif yaptı. Modellerin düşünme izlerinde iki farklı token türü bulunduğunu tespit ettiler: düşük entropili yapısal token'lar (tekrar eden kalıplar) ve yüksek entropili organik token'lar (probleme özgü içerik). Bu asimetriden yararlanarak geliştirdilen yeni sıkıştırma tekniği, modellerin sık kullandığı yapısal kalıpları 'süpertoken'lara dönüştürüyor. Üç farklı model ailesinde ve beş matematiksel akıl yürütme testinde yapılan deneylerde, bu yaklaşım düşünme süreçlerini ortalama %8,1 oranında kısalttı ve hiçbir modelde doğruluk kaybına neden olmadı. Yöntem, sadece hızlandırma değil, aynı zamanda modellerin düşünce yapısını daha iyi anlamamıza da katkı sağlıyor.
arXiv (Dilbilim & NLP) · 15 gün önce
0
Yapay Zeka Modelleri Artık Düşünürken Bilgi Arayabilecek
Büyük yapay zeka modellerinin mantıklı düşünme yetenekleri gelişirken, bilgi arama sistemleriyle entegrasyonunda önemli bir sorun ortaya çıkıyor. Mevcut RAG sistemleri düşünme süreci başlamadan önce tüm bilgiyi sağlarken, gelişmiş AI modelleri düşünme zinciri boyunca ihtiyaç duyduklarında bilgiye erişmek istiyor. Araştırmacılar bu uyumsuzluğu çözmek için ReaLM-Retrieve adlı yeni bir çerçeve geliştirdi. Sistem, AI'ın hangi adımda bilgi eksiği yaşadığını tespit ediyor, en uygun zamanda dış kaynaklardan bilgi getiriyor ve bu işlemi 3,2 kat daha hızlı yapıyor. Bu gelişme, yapay zekanın karmaşık sorulara verdiği yanıtların kalitesini artırırken, gereksiz bilgi arama işlemlerini de engelliyor.
arXiv (Dilbilim & NLP) · 15 gün önce
0