"deontik mantık" için 262 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
262 haber
Vietnamca Hukuki Metinler İçin Yapay Zeka Veri Seti Geliştirildi
Araştırmacılar, Vietnamca hukuki metinlerde doğal dil anlama için özel olarak tasarlanmış ilk büyük ölçekli veri setini oluşturdular. ViLegalNLI adlı bu veri seti, resmi yasal belgelerden türetilen 42.012 öncül-hipotez çifti içeriyor ve yapay zeka sistemlerinin hukuki metinleri daha iyi anlamasını sağlamayı hedefliyor. Veri seti, çok aşamalı mantıksal çıkarım, koşullu ifadeler ve hukuk terminolojisi gibi karmaşık yasal akıl yürütme senaryolarını kapsıyor. Bu çalışma, hukuk alanında yapay zeka uygulamalarının geliştirilmesi için önemli bir kaynak sunuyor ve özellikle Vietnamca gibi az kaynaklı diller için hukuki NLP araçlarının geliştirilmesinde kritik bir adım teşkil ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Küçük dil modelleri artık tablo verilerini kaynak göstererek analiz edebiliyor
Araştırmacılar, küçük dil modellerinin tablo verilerini analiz ederken hangi hücrelerden bilgi aldığını şeffaf bir şekilde gösterebilen RSAT yöntemini geliştirdi. Bu yenilik, yapay zeka sistemlerinin güvenilirliği açısından önemli bir adım. 1-8 milyar parametreli modeller üzerinde test edilen sistem, her akıl yürütme adımını kaynak hücrelerle eşleştirerek doğrulanabilir sonuçlar üretiyor. Geleneksel yaklaşımlarda kullanıcılar, AI'nın hangi verileri kullanarak sonuca ulaştığını bilemiyordu. RSAT ise adım adım mantık yürütme sürecinde kullanılan her tablo hücresini işaret ederek bu sorunu çözüyor. Test sonuçları, sistemin güvenilirliğini 3,7 kat artırdığını ve kaynak gösterme doğruluğunun yüzde 99,2'ye ulaştığını gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Etik Anlaşmazlıkları Nasıl Çözecek? Reddit Verileriyle Test Edildi
Stanford araştırmacıları, çelişkili etik görüşleri mantıklı bir şekilde birleştiren yeni bir yapay zeka sistemi geliştirdi. Geleneksel çoğunluk oylaması yöntemlerinin aksine, bu sistem farklı görüşleri gürültü olarak görmek yerine mantık tabanlı bir yaklaşım kullanıyor. Reddit'in r/AmItheAsshole forumundaki milyonlarca tartışmayı analiz eden sistem, popüler görüşlerden %62 oranında farklı sonuçlar üretiyor. Araştırmacılar, sistemin doğal dil açıklamalarını mantıksal kurallara dönüştürdükten sonra, bu kuralları matematiksel optimizasyon problemi olarak çözüyor. Bağımsız değerlendirmecilerle %86 uyum oranına ulaşan sistem, özellikle etik ikilemler ve toplumsal anlaşmazlıklar konusunda adil karar verme mekanizmaları geliştirilmesinde önemli bir adım sayılıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Modellerinin Önyargıları: Görev Tanımı Nasıl Karar Vermeyi Etkiliyor?
Araştırmacılar, büyük dil modellerinin (LLM) görev tanımlarındaki ifadelerden nasıl önyargılı çıkarımlar yaptığını inceledi. Mahkumlar ikilemi oyunu üzerinden yapılan deneylerde, yapay zeka modellerinin mantıklı adımlar izleseler bile varsayımsal düşünce kalıplarına sıkışabildikleri görüldü. Ancak görev tanımı tarafsız bir dille yapıldığında, modeller daha objektif kararlar verebiliyor. Bu bulgular, yapay zekanın güvenli kullanımı için doğru görev tanımlarının kritik önemini ortaya koyuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Transformer'larda Yerel Dikkat Mekanizmasının Gücü Matematiksel Olarak Açıklandı
Yapay zeka dünyasının en önemli mimarilerinden transformer'ların yerel dikkat mekanizması, şaşırtıcı bir şekilde küresel dikkattan daha iyi sonuçlar verebiliyor. Araştırmacılar, bu paradoksal durumun nedenini matematiksel olarak açıkladı. Yerel dikkat, her kelimenin sadece sınırlı sayıda önceki kelimeye odaklanmasını sağlayarak hem hesaplama maliyetini düşürüyor hem de model performansını artırıyor. Çalışma, bu mekanizmanın ifade gücünü lineer zamansal mantık çerçevesinde analiz ederek, yerel dikkat eklenmesinin modele ek bir geçmiş operatörü kazandırdığını gösteriyor. Bu keşif, dil modellerinin nasıl çalıştığına dair temel anlayışımızı derinleştiriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Modellerini Hızlandıran Yeni Sıkıştırma Tekniği Geliştirildi
Araştırmacılar, büyük dil modellerinin boyutunu küçültmek için ARHQ adlı yenilikçi bir yöntem geliştirdi. Bu teknik, modellerin performansını korurken boyutlarını önemli ölçüde azaltabiliyor. Geleneksel sıkıştırma yöntemlerinin aksine, ARHQ hata yayılımını önlemek için ağırlıkları iki ayrı dala bölerek işlem yapıyor. Yöntem, hassas hesaplamalar gerektiren kısımları yüksek kalitede tutarken, diğer bölümleri güvenle sıkıştırıyor. Qwen3-4B modeli üzerindeki testler, bu yaklaşımın mantıksal düşünme yeteneklerini koruduğunu gösteriyor. Bu gelişme, yapay zeka modellerinin mobil cihazlarda ve sınırlı kaynaklara sahip sistemlerde daha verimli çalışmasının önünü açıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
SST V2: Yapay Zeka Modellerinde Sürekli Mantık Yürütme Atılımı
Araştırmacılar, mevcut transformer modellerinin sınırlarını aşan yeni bir yapay zeka mimarisi geliştirdi. State Stream Transformer (SST) V2, geleneksel modellerin aksine pozisyonlar arası gizli bilgiyi koruyor ve sürekli bir mantık yürütme süreci sağlıyor. Bu yenilik, AI modellerinin daha verimli öğrenmesini ve daha derin düşünme kapasitesini mümkün kılıyor. Model, her katmanda doğrusal olmayan bir tekrarlama mekanizması kullanarak, gizli durumları tüm dizi boyunca akıtıyor. En önemli özelliği ise çıkarım sırasında her pozisyonda sürekli düşünebilme yetisi - tıpkı insanların karar vermeden önce düşünmesi gibi. İki aşamalı paralel eğitim prosedürü sayesinde verimli öğrenme sağlanırken, gizli durum analizi modelin farklı anlamsal alanlarda gezinerek mantık yürüttüğünü gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Oyun Oynayarak Karar Vermeyi Öğreniyor: 100+ Hamlelik Strateji Devrimi
Araştırmacılar, görsel-dil modellerinin uzun vadeli karar alma becerilerini geliştirmek için yeni bir yaklaşım geliştirdi. Super Mario Land oyununu oynayarak eğitilen yapay zeka, 100'den fazla hamle gerektiren karmaşık görevlerde başarı gösterdi. Çalışma, geleneksel yöntemlerin aksine pekiştirmeli öğrenme tekniklerini kullanarak, yapay zekanın görsel algı, mantık yürütme ve eylem koordinasyonunu bir arada gerçekleştirmesini sağladı. PPO algoritmasının uyarlanmış versiyonu ile eğitim kararlılığı önemli ölçüde artırıldı. Bu gelişme, yapay zekanın interaktif ortamlarda uzun soluklu stratejik düşünme becerisini kazanması açısından önemli bir adım teşkil ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Modellerinin Mantıksal Düşünme Yetisi İçin Yeni Yaklaşım: ResRL
Araştırmacılar, büyük dil modellerinin mantıksal düşünme kapasitesini artırmak için ResRL adında yeni bir pekiştirmeli öğrenme yöntemi geliştirdi. Mevcut teknikler, modellerin doğru cevap verme oranını artırırken yaratıcılığını kısıtlıyor. Yeni yöntem, negatif örnekleri akıllıca kullanarak hem doğru sonuçlar üretmeyi hem de çeşitlilik kazanmayı hedefliyor. ResRL, pozitif ve negatif yanıtlar arasındaki benzer anlamsal dağılımları ayırarak çalışıyor. Bu sayede modeller, yanlış cevaplara odaklanmadan öğrenim sürecini optimize edebiliyor. Geliştirilen teknik, yapay zeka modellerinin daha etkili problem çözme yetenekleri kazanmasını sağlayabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka İçin Bilgi Arama Sistemleri Yeniden Tasarlanıyor
Geleneksel arama motorları insanlar için tasarlanmıştı, ancak artık büyük dil modelleri de bu sistemleri yoğun şekilde kullanıyor. Araştırmacılar, yapay zekanın bilgi arama ihtiyaçlarının insanlardan çok farklı olduğunu keşfetti. YZ modelleri, sınırlı dikkat kapasiteleri nedeniyle gürültülü veya alakasız bilgilere karşı çok daha hassas. Bu durum halüsinasyonlara ve mantık hatalarına yol açabiliyor. Yeni araştırma, bilgi arama sistemlerinde 'gürültü temizleme' yaklaşımının kritik önemde olduğunu vurguluyor. Sistemler artık kullanılabilir kanıt yoğunluğunu artırıp doğrulanabilirliği maksimize etmeye odaklanmalı. Bu paradigma değişimi, arama teknolojilerinin temelinden yeniden düşünülmesini gerektiriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Modelleri Kısa Videolardaki Sağlık Dezenformasyonuna Karşı Test Edildi
Araştırmacılar, çok modlu büyük dil modellerinin (MLLM) kısa videolardaki sağlık dezenformasyonunu ne kadar iyi tespit edebildiğini araştırdı. Çalışmada dört sağlık alanından 200 kısa video içeren özel bir veri seti kullanılarak sekiz farklı yapay zeka modeli test edildi. Videolardaki yanıltıcı deneysel sonuçlar, mantık hataları ve uydurma iddialar olmak üzere üç temel aldatma türü incelendi. Sonuçlara göre Gemini-2.5-Pro modeli çok modlu ortamda en yüksek performansı gösterdi. Bulgular, gelişmiş yapay zeka modellerinin bile görsel ve sosyal ipuçlarıyla desteklenen dezenformasyona karşı tam olarak dayanıklı olmadığını ortaya koyuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0