"düşünce zinciri" için 166 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
166 haber
Yapay Zeka Modelleri Artık Ne Zaman Durması Gerektiğini Öğreniyor
Büyük dil modelleri karmaşık problemleri çözerken gereksiz hesaplamalar yaparak enerji ve zaman israf ediyor. Stanford araştırmacıları, Step-GRPO adlı yeni bir yöntem geliştirerek bu soruna çözüm getirdi. Bu teknik, modellerin cevabı bulduklarında otomatik olarak durmayı öğrenmelerini sağlıyor. Geleneksel yöntemler ya modelin performansını düşürüyor ya da sistem karmaşıklığını artırıyordu. Step-GRPO ise modelin içine dinamik erken çıkış yeteneği yerleştirerek bu ikilemden kurtulmuş. Yöntem, düşünce zincirini anlamsal adımlara bölerek optimize ediyor ve gereksiz tekrarları cezalandırıyor. Test sonuçları, Qwen3-8B modelinde hem doğruluğu koruduğunu hem de hesaplama verimliliğini önemli ölçüde artırdığını gösterdi.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Araç Zincirlerinde Gizli Saldırılar: MCP Ekosistemindeki Yeni Tehdit
Araştırmacılar, büyük dil modellerinin (LLM) dış sistemlerle entegrasyonunda kullanılan Model Context Protocol (MCP) ekosisteminde yeni bir güvenlik tehdidi keşfetti. 'Parazitik Araç Zinciri Saldırıları' olarak adlandırılan bu tehdit, yapay zekanın pasif bilgi işleyiciden aktif görev orchestratörüne dönüşümüyle ortaya çıkıyor. Saldırganlar, kurbanın doğrudan etkileşimine gerek duymadan, LLM'lerin meşru görevler sırasında eriştiği dış veri kaynaklarına kötü amaçlı talimatlar gömebiliyor. Bu durum, geleneksel prompt enjeksiyonu ve araç zehirleme saldırılarından farklı olarak, tek çıktıları manipüle etmek yerine tüm yürütme akışını ele geçirmeyi hedefliyor. MCP Unintended Privacy Disclosure (MCP-UPD) olarak örneklendirilen bu sistematik gizlilik sızıntısı saldırı modeli, LLM destekli uygulamaların yaygınlaşmasıyla birlikte saldırı yüzeyinin genişlediğini gösteriyor.
arXiv (CS + AI) · 25 gün önce
0
Küçük yapay zeka modelleri Vietnamca'da akıl yürütme becerisini kazandı
Araştırmacılar, kaynak kısıtlı cihazlarda çalışabilen küçük dil modellerinin akıl yürütme yeteneklerini geliştirmenin yollarını araştırdı. Vietnamca gibi İngilizce dışındaki dillerde bu modeller genellikle tutarlı düşünce zinciri oluşturmakta zorlanıyor. Çalışmada, Qwen3-1.7B mimarisine sahip küçük bir model kullanılarak Vietnamca matematik problemlerinde test-zamanı ölçeklendirme stratejileri incelendi. Araştırmacılar, Vi-S1K adlı yüksek kaliteli bir veri seti ve Vi-Elementary-Bench değerlendirme ölçütü geliştirdi. Sonuçlar, temel modelin güçlü gizli bilgiye sahip olduğunu ancak iletişimde 'formatlama açığı' yaşadığını gösterdi. Denetimli ince ayar yöntemiyle modelin açıklama kalitesinde %77 iyileşme sağlandı ve bu yaklaşım 'akıl yürütme kilidini açan' kritik rol oynadı.
arXiv (CS + AI) · 25 gün önce
0
Yapay zeka artık metindeki varlıkları görselde de bulabiliyor
Araştırmacılar, metinlerdeki özel isimleri tanımlayıp bunları ilgili görsellerde konumlandırabilen yeni bir yapay zeka sistemi geliştirdi. E2E-GMNER adlı bu sistem, bir metinde geçen kişi, yer veya kuruluş isimlerini sadece tanımlamakla kalmıyor, aynı zamanda bu varlıkları eşlik eden görsellerde de işaretleyebiliyor. Geleneksel yöntemler bu işlemleri ayrı aşamalarda gerçekleştirirken, yeni sistem tüm süreci tek seferde tamamlıyor. Bu yaklaşım, hata birikimini önleyerek daha doğru sonuçlar üretiyor. Sistem, zincirleme düşünce yöntemiyle çalışarak ne zaman görsel kanıtlara, ne zaman arka plan bilgisine güveneceğini akıllıca belirliyor. Bu gelişme, içerik analizi, sosyal medya izleme ve otomatik etiketleme gibi alanlarda önemli uygulamalara sahip.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Sistemlerinde Hızlı Düşünce Yavaş Düşünceden Daha Etkili Olabilir
Merkeziyetsiz Özerk Organizasyonlar (DAO'lar) için geliştirilen küçük dil modellerinde yapılan yeni bir araştırma, beklenmedik bir sonuç ortaya koydu. Araştırmacılar, yapay zeka sistemlerinde 'System 1' (hızlı, sezgisel) ve 'System 2' (yavaş, mantıklı) düşünce süreçlerinin etkisini inceledi. Sentinel-Bench adlı test platformunda 840 farklı çıkarım gerçekleştirerek, Qwen-3.5-9B modelinin performansını değerlendirdiler. Sonuçlar, karmaşık mantık yürütme süreçlerinin her zaman daha iyi sonuç vermediğini gösterdi. Hızlı düşünce modeli %100 doğrulukla 13 saniyeden kısa sürede sonuç verirken, daha karmaşık System 2 yaklaşımı beklenmedik şekilde kararsızlık yarattı. Bu bulgular, yapay zeka sistemlerinin optimizasyonunda hızın doğruluktan daha önemli olabileceğini düşündürüyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Koku Moleküllerinden Dil Tanımlamalarına Giden Yolu Çözüyor
Araştırmacılar, koku algılamasının karmaşık sürecini modelleyen yeni bir yapay zeka sistemi geliştirdi. NOSE adındaki bu sistem, molekül yapısından başlayarak sinir reseptörlerine ve oradan dil tanımlamalarına uzanan koku algılama zincirinin tamamını aynı anda modelliyor. Geleneksel yaklaşımlar bu sürecin sadece belli parçalarına odaklanırken, yeni sistem üç farklı veri türünü birleştiriyor: kimyasal molekül yapıları, koku reseptörü dizileri ve doğal dil açıklamaları. Sistem, her veri türünün benzersiz bilgisini koruyarak bunları uyumlu hale getiriyor ve böylece hem biyolojik temeli olan hem de anlamlı koku temsillerini öğrenebiliyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Mantık Yürütmesinde Güvenilirlik Sorunu Çözülüyor
Büyük dil modelleri karmaşık problemleri çözerken adım adım açıklama yapabiliyor, ancak bu açıklamalar görünüşte tutarlı olsa da çoğu zaman yanıltıcı olabiliyor. Araştırmacılar, yapay zekanın mantık zincirleri ne kadar güvenilir sorusuna yanıt arıyor. Yeni geliştirilen FACT-E sistemi, nedensellik ilkelerinden yararlanarak AI'ın düşünce süreçlerini değerlendiriyor. Bu yöntem, modelin gerçekten mantıklı adımlar atıp atmadığını veya sadece inandırıcı görünen ama temelsiz açıklamalar üretip üretmediğini ayırt edebiliyor. Kontrollü müdahaleler yaparak gerçek adım-adım bağımlılığı tespit eden sistem, hem içsel tutarlılığı hem de nihai cevapla uyumluluğu birlikte değerlendiriyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Modelleri Artık 'Düşünce Ağaçları' ile Kodlama Başarısını Tahmin Ediyor
Büyük dil modellerinin kodlama görevlerindeki performansını değerlendirmek için yenilikçi bir yaklaşım geliştirildi. Araştırmacılar, modellerin test sırasında daha fazla zaman harcayarak ara mantık adımları üretmelerinin performansı nasıl etkilediğini inceledi. Çalışma, sadece cevabın içeriğinin değil, aynı zamanda mantık yürütme sürecinin yapısının da doğruluk için güçlü bir belirleyici olduğunu ortaya koydu. Bu bulgular, yapay zeka modellerinin kodlama yeteneklerini daha iyi anlamamızı ve değerlendirmemizi sağlayacak programatik bir çerçeve sunuyor. Araştırma, rekabetçi programlama ölçütlerinin ötesine geçerek gerçek dünya kodlama görevlerindeki performansı sistematik olarak analiz etti.
arXiv (CS + AI) · 25 gün önce
0
Beyin sinyallerinden dil çözümleme: EEG ile düşünceleri okumak mümkün mü?
Araştırmacılar, beyin dalgalarını ölçen EEG cihazlarından doğal dil yapılarını çözümlemeye çalışıyor. Ancak yeni bir çalışma, EEG sinyallerinin düşük sinyal-gürültü oranı ve sınırlı bilgi kapasitesi nedeniyle tam cümle yapılarını değil, sıkıştırılmış anlamsal bileşenleri kodladığını öne sürüyor. Bu yaklaşımla geliştirilen Brain-CLIPLM sistemi, beyin sinyallerinden önce anlamsal çapaları çıkarıyor, sonra bu bilgiyi kullanarak cümleleri yeniden oluşturuyor. Çalışma, beyin-bilgisayar arayüzleri alanında önemli bir paradigma değişikliği öneriyor.
arXiv (Dilbilim & NLP) · 25 gün önce
0
Yapay Zeka Artık Düşünce Süreçlerini Görsel Olarak Gösterebiliyor
Araştırmacılar, büyük dil modellerinin mantık yürütme süreçlerini görselleştiren yenilikçi bir yöntem geliştirdi. Render-of-Thought (RoT) adlı bu yaklaşım, yapay zekanın adım adım düşünce zincirini metinsel ifadelerden görsel temsillere dönüştürüyor. Bu sayede yapay zekanın nasıl sonuca ulaştığını takip etmek ve anlamak mümkün hale geliyor. Geleneksel Chain-of-Thought yönteminin fazla kelime kullanma sorununun üstesinden gelen bu teknik, mevcut görsel-dil modellerinin görme kabiliyetlerini kullanarak ek eğitim gerektirmeden uygulanabiliyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Modelleri Hangi Düşünce Adımlarının Önemli Olduğunu Biliyor
Araştırmacılar, dil modellerinin karmaşık problemleri çözerken oluşturdukları uzun mantık zincirlerindeki hangi adımların kritik olduğunu nasıl bildiklerini inceledi. Stanford ve diğer kurumlardan bilim insanları, modellerin dahili aktivasyonlarını analiz ederek şaşırtıcı bir keşif yaptı: Yapay zeka modelleri, bir sonraki adımı üretmeden önce bile hangi düşünce adımlarının önemli olduğunu içsel olarak kodluyor. Bu bulgular, AI sistemlerinin akıl yürütme süreçlerini anlamamızda yeni bir pencere açıyor ve modellerin sadece metin üretmekle kalmayıp, düşünce süreçlerinin önemini de değerlendirdiğini gösteriyor.
arXiv (CS + AI) · 25 gün önce
0