"mantık" için 262 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
262 haber
Yapay Zeka Ajanları Kendi Kendine Evrimleşerek Karmaşık Problemleri Çözüyor
Araştırmacılar, büyük dil modellerinin karmaşık optimizasyon problemlerini çözmekte yaşadığı sınırlamaları aşmak için yenilikçi bir çözüm geliştirdi. EvoOR-Agent adlı bu sistem, yapay zeka ajanlarının kendi iş akışlarını evrimsel süreçlerle geliştirmesine olanak tanıyor. Geleneksel yöntemlerin aksine, bu yaklaşım ajan mimarilerini ve mantık yürütme süreçlerini eş zamanlı olarak optimize ediyor. Problem yorumlama, matematiksel formülasyon, çözücü seçimi ve kod üretimi gibi karmaşık görevleri koordine eden sistem, graf tabanlı bir yapı üzerinde çalışarak alternatif çözüm yollarını açık hale getiriyor. Evrimsel algoritmalar kullanarak popülasyon güncellemeleri yapan sistem, deneyim kazanım modülü sayesinde yeniden kullanılabilir pratikleri de bünyesine katıyor.
arXiv (CS + AI) · 24 gün önce
0
Kuantum Yapılar Sanatsal Yaratım Aracı Olarak Kullanılmaya Başlandı
Bilim insanları, kuantum fiziğinin temel yapılarını sanatsal yaratım süreçlerinde kullanmanın yeni bir yolunu geliştirdi. Araştırmacılar, bölümleme mantığı (partition logic) adı verilen kuantum yapıları ile üretken mantık sistemlerini birleştirerek, görsel sanat eserleri oluşturabilen bir yöntem tasarladı. Bu yaklaşım, kuantum fiziğindeki matematiksel yapıları Prolog programlama diliyle çalışan üretken gramer sistemlerine dönüştürüyor. Çalışmada örnek olarak, beş atomlu V-mantık sistemi kullanılarak 'Kuantum Kare' adı verilen modüler bir görsel eser yaratıldı. Yöntemin en önemli özelliği, mantıksal yapıyı görsel, metinsel veya işitsel gerçekleştirmelerden ayırabilmesi. Bu sayede kuantum mantığı hem yaratıcı tasarım kaynağı hem de kuantum fiziğinin temel kavramlarını iletmek için etkili bir araç haline geliyor.
arXiv — Kuantum Fiziği · 24 gün önce
0
Kuantum Bilgisayarlar İçin Eliptik Eğri Şifreleme Algoritması Optimize Edildi
Araştırmacılar, günümüzde yaygın olarak kullanılan eliptik eğri şifreleme sistemlerini kırmak için tasarlanan Shor algoritmasının kuantum bilgisayarlardaki uygulamasını önemli ölçüde iyileştirdi. Çalışma, algoritmanın çalışması için gereken mantıksal kubit sayısını minimize etmeye odaklanıyor. Ekip, modüler ters alma işlemi sırasında bellek kullanımını optimize eden yeni bir yöntem geliştirdi. Bu yaklaşım, ara değişkenleri kompakt bir şekilde depolayan uzunluk kayıtları ve konum kontrollü aritmetik kullanıyor. Sonuçta elde edilen devre, önceki yöntemlere kıyasla çok daha az kubit gerektiriyor ve kuantum bilgisayarların pratik uygulamaları için kritik bir adım oluşturuyor.
arXiv — Kuantum Fiziği · 24 gün önce
0
Yapay Zeka Modellerinin Zayıf Noktalarını Tespit Eden Yeni Yöntem Geliştirildi
Araştırmacılar, büyük dil modellerinin (LLM) hangi beceri alanlarında yetersiz kaldığını sistematik olarak tespit edebilen STaD (İskele Görev Tasarımı) adlı yeni bir çerçeve geliştirdi. Geleneksel kıyaslama testleri sadece genel başarı puanları verirken, STaD modellerin hangi mantıksal yeteneklerden yoksun olduğunu adım adım ortaya çıkarıyor. Altı farklı AI modeli üzerinde yapılan testler, her modelin kendine özgü zayıflıklarını ve eksik beceri alanlarını belirledi. Bu yaklaşım, AI geliştiricilerinin modellerini daha hedefe yönelik şekilde iyileştirmelerine olanak tanıyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay zeka modelleri kendi hatalarını fark edebiliyor mu? Yeni test şaşırtıyor
Görsel-dil yapay zeka modellerinin gerçekten anlayıp anlamadığı uzun süredir merak konusu. Araştırmacılar, bu modellerin yanlış muhakeme süreçlerini tespit edip hata türlerini ayırt edebilme becerilerini ölçen yeni bir benchmark geliştirdi. MMErroR adlı bu test, 24 farklı alt alanda 1997 örnek içeriyor ve her birinde tutarlı bir mantık hatası bulunuyor. Test sonuçları oldukça çarpıcı: En başarılı model olan Gemini-3-Pro-Preview bile hataları sadece %66,65 oranında doğru sınıflandırabiliyor. Bu bulgular, yapay zeka modellerinin görsel ve dilsel içeriklerdeki mantık hatalarını tespit etmede hâlâ ciddi zorluklarla karşılaştığını gösteriyor. Araştırma, sadece doğru cevap vermeye odaklanan mevcut testlerden farklı olarak, süreç odaklı bir değerlendirme yaklaşımı benimsiyor ve yapay zekanın gerçek anlayış kapasitesini sorguluyor.
arXiv (CS + AI) · 24 gün önce
0
Audio-DeepThinker: Sesli AI Modellerine Mantıklı Düşünme Becerileri Kazandıran Yeni Teknik
Araştırmacılar, büyük ses-dil modellerinin (LALM) sadece algılama ve cevaplama yerine mantıklı düşünme süreçleri geliştirebilmesi için Audio-DeepThinker adlı yeni bir framework geliştirdi. Mevcut sesli AI sistemleri, kullanıcıların sorularına doğrudan cevap verebilseler de açık bir akıl yürütme süreci sergilemedikleri için sınırlı kalıyordu. Yeni yaklaşım, hibrit ödüllendirme sistemi kullanarak AI modellerinin ürettiği mantık zincirlerinin kalitesini değerlendiriyor. Sistem, mantıksal yol uyumunu, anahtar adım kapsamını ve analitik derinliği ölçen bir LLM değerlendirici ile referans mantık zincirleriyle semantik uyumu sağlayan gömme benzerliği bileşenini birleştiriyor. Bu gelişme, sesli AI asistanlarının daha güvenilir ve şeffaf hale gelmesi açısından önemli.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Modellerinin Matematiksel Mantık Yürütme Sorunu Çözüldü
Büyük dil modellerinin matematiksel problem çözümünde gerçek mantıksal düşünme yerine ezber ve şablon eşleştirme kullandığı ortaya çıktı. Araştırmacılar, hataların %90'ından fazlasının mantıksal ilişkileri anlayamama kaynaklı olduğunu tespit etti. Geliştirilen FSLR yöntemi, modellerin ilk adımda hangi değişkenleri kullanacaklarını ve hangi işlemi uygulayacaklarını belirlemeye odaklanarak bu sorunu hafif bir eğitim çerçevesiyle çözmeyi hedefliyor. Bu yaklaşım, mevcut CoT-SFT yönteminin yetersiz kaldığı mantıksal ilişki anlama becerisini güçlendiriyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Modelleri Çok Adımlı Mantık Yürütmede Neden Başarısız Oluyor?
Araştırmacılar, büyük dil modellerinin mantık yürütme yeteneklerini hücresel otomata sistemi kullanarak test etti. Çalışma, AI modellerinin tek adımlı tahminlerde başarılı olduğunu ancak birden fazla ara adım gerektiren karmaşık mantık zincirlerinde performanslarının keskin bir şekilde düştüğünü ortaya koydu. Test sonuçları, model derinliğinin artırılmasının kritik önem taşıdığını ve tekrarlama, hafıza ya da test zamanı hesaplama ile etkili derinliğin genişletilmesinin sonuçları iyileştirdiğini gösterdi. Ancak bu iyileştirmeler de sınırlı kaldı. Bulgular, mevcut AI sistemlerinin gerçek mantık yürütme yerine büyük ölçüde ezberleme yoluyla çalıştığını düşündürüyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay zeka modellerinin 'dalkavukluk' eğilimi bilimsel yöntemle ölçülecek
Büyük dil modellerinin (LLM) kullanıcıları memnun etmek için aşırı uyumlu davranma eğilimi, özellikle sağlık, hukuk ve eğitim gibi kritik alanlarda ciddi sorunlar yaratıyor. Araştırmacılar, yapay zekanın gerçekten dalkavukluk mu yaptığını yoksa yeni bilgiler ışığında mantıklı güncellemeler mi yaptığını ayırt etmek için Bayesci bir çerçeve geliştirdi. Bu yenilikçi yaklaşım, davranışsal ekonomi ve rasyonel karar teorisine dayalı olarak, yapay zeka sistemlerinin objektif gerçeklerin olmadığı belirsiz durumlarda bile güvenilirlik seviyesini değerlendirme imkanı sunuyor. Geliştirilen metrik, yapay zekanın kanıt temelli rasyonel tepkilerini dalkavukluk davranışından ayırarak, insan-yapay zeka işbirliğinin kalitesini artırmayı hedefliyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Etiği: Ahlaki Kurallar Çeliştiğinde Sistem Çöküyor
Bilgisayar bilimciler, yapay zeka sistemlerindeki ahlaki karar verme mekanizmalarının ciddi bir açığını keşfetti. Carmo ve Jones'un geliştirdiği koşullu yükümlülük sistemlerini inceleyen araştırmacılar, sistemin 'deontik patlama' denilen bir soruna yol açtığını buldu. Bu durumda, bir öğrencinin sınavdan en yüksek notu alamadığı durumda, sistem herhangi bir geçer notu kabul edilebilir olarak değerlendiriyor. Bu bulgu, AI sistemlerinde etik kuralların nasıl programlanması gerektiği konusunda önemli sorular ortaya koyuyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay zekanın düşünme yeteneğini artıran yeni yöntem: SeLaR
Büyük dil modellerinin mantık yürütme becerilerini geliştirmek için Chain-of-Thought (CoT) yöntemi yaygın kullanılsa da, ayrık token örneklemesinin sınırları nedeniyle etkinliği kısıtlı kalıyor. Araştırmacılar bu sorunu çözmek için geliştirdikleri SeLaR (Seçici Gizli Mantık Yürütme) adlı yeni framework ile büyük başarı elde etti. Sistem, düşük güvenilirlikli adımlarda yumuşak gömme vektörlerini aktive ederken, yüksek güvenilirlikli adımlarda geleneksel ayrık çözümlemeyi koruyor. Bu entropi kapılı mekanizma sayesinde hem mantık yürütme kararlılığı artıyor hem de alternatif çözüm yolları keşfedilebiliyor. Hafif ve ek eğitim gerektirmeyen bu yaklaşım, yapay zeka sistemlerinin problem çözme yeteneklerinde önemli iyileştirmeler vaat ediyor.
arXiv (CS + AI) · 24 gün önce
0