Arama · son güncelleme 10 sa önce
8.356
toplam haber
1
kategori
70+
bilim kaynağı
1-24 / 29 haber Sayfa 1 / 2
Teknoloji & Yapay Zeka
5 May

Beyin İlhamlı Yapay Zeka: Nöroloji ve AI Arasındaki Köprüler Güçleniyor

Amerikan Ulusal Bilim Vakfı'nın düzenlediği kapsamlı çalıştaya dayanan yeni araştırma, yapay zekanın mevcut sınırlarını aşmak için nörobilimden ilham almanın gerekliliğini vurguluyor. Çalışma, günümüz AI sistemlerinin fiziksel dünyayla etkileşim kuramama, kırılgan öğrenme mekanizmaları ve sürdürülemez enerji tüketimi gibi üç temel eksikliğini tanımlıyor. Bu sorunların çözümü için beyin-vücut ortak tasarımı, etkileşim yoluyla öngörü kurma, çok katmanlı öğrenme ve olay-tabanlı hesaplama gibi nörobilimsel ilkeler öneriliyor. Araştırmacılar, bu hedeflere ulaşmak için nörobilim ve mühendislik alanlarında uzmanlaşmış yeni nesil bilim insanlarının yetiştirilmesinin kritik önemde olduğunu belirtiyor. Bu yaklaşım, AI'nın gelecekteki gelişimi için devrim niteliğinde bir yol haritası sunuyor.

arXiv (Biyoloji) 0
Teknoloji & Yapay Zeka
4 May

Yapay Zeka Neden Stratejik Oyunlarda Başarısız Oluyor? İç Mekanizmalar Araştırıldı

Büyük dil modelleri müzakere ve politika yapımı gibi eksik bilgilerle stratejik karar verme görevlerinde sıklıkla kullanılıyor. Ancak bu modellerin beklenmedik başarısızlıkları var. Yeni bir araştırma, Llama 3.1, Qwen3 ve GPT-OSS modellerini inceleyerek bu başarısızlıkların nedenlerini ortaya çıkardı. Çalışma, yapay zekanın gözlem yapma, inanç oluşturma ve eylem alma süreçleri arasında iki kritik boşluk tespit etti. Birincisi, modellerin gerçekte sahip oldukları inançlar ile sözel olarak ifade ettikleri arasındaki tutarsızlık. İkincisi ise iç inançları eylemlere dönüştürmedeki zayıflık. Bu bulgular, AI sistemlerinin stratejik düşünme yeteneklerini geliştirmek için önemli ipuçları sunuyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
4 May

Mamba AI Modelinin Gizli Hafızası Beklenen Performansı Gösteremedi

Yapay zeka dünyasında dikkat çeken Mamba modeli, teorik olarak her kelimeyi sıkıştırılmış bir hafızada saklayabiliyor. Araştırmacılar, bu özelliğin otomatik cümle özetleme için kullanılabileceğini düşünmüştü. Ancak yeni çalışma, bu beklentiyi karşılamadığını ortaya koydu. Mamba-130M modeli üzerinde yapılan testlerde, beş farklı benchmark görevinde (duygu analizi, dilbilgisel doğruluk, cümle benzerliği gibi) modelin donmuş temsilleri incelendi. Sonuçlar hayal kırıklığı yarattı: özel sınır noktalarından çıkarılan temsiller, basit ortalama alma yönteminden tutarlı bir şekilde daha iyi performans gösteremedi. Daha da önemlisi, araştırmacılar modelin iç yapısında iki ciddi sorun tespit etti: temsillerin birbirine aşırı benzemesi ve son durum vektörlerinde anlam kaybı. Bu bulgular, Mamba gibi yeni nesil dil modellerinin teorik potansiyellerini pratiğe dönüştürmenin düşünülenden daha karmaşık olduğunu gösteriyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
4 May

Büyük Dil Modelleri Gerçekten 'Düşünüyor' mu? Bilim İnsanları Tartışıyor

ChatGPT gibi büyük dil modellerinin nasıl çalıştığı konusunda bilim dünyasında büyük bir tartışma yaşanıyor. Bu sistemler gerçekten anlayarak mı cevap veriyor, yoksa sadece ezberledikleri bilgileri tekrar mı ediyor? Yeni bir araştırma, bu temel soruya yanıt aramak için LLM'lerin bilgi işleme süreçlerini inceliyor. Araştırmacılar, bu modellerin insan benzeri zihinsel süreçler kullanıp kullanmadığını anlamaya çalışıyor. Bu sorunun yanıtı, yapay zekanın gerçek potansiyeli ve gelecekteki gelişimi hakkında kritik ipuçları verebilir. Bilim insanları arasında iyimser ve kötümser kamplar oluşmuş durumda.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
4 May

Yapay Zeka Modelleri Artık Görevleri Daha Etkili Öğreniyor

Araştırmacılar, büyük dil modellerinin yeni görevleri nasıl öğrendiğini anlamak için önemli bir adım attı. Modellerin örnek gösterilerden öğrenme sürecinde kullandığı 'görev vektörleri' adı verilen yapıları daha etkili bir şekilde eğitmenin yolunu buldular. Yeni yöntem, geleneksel yaklaşımlardan daha yüksek doğruluk oranı sağlıyor ve modelin farklı katmanlarında esnek bir şekilde çalışabiliyor. Çalışma, yapay zekanın öğrenme mekanizmalarını anlamada ve gelecekteki AI sistemlerinin performansını artırmada kritik öneme sahip. Bu gelişme, dil modellerinin nasıl çalıştığına dair daha derin anlayış kazanmamızı sağlayarak, AI teknolojilerinin daha verimli hale getirilmesine katkı sunuyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
1 May

Çoklu Modaliteli AI Sistemlerinde Akıl Yürütmenin Gizli Engelleri Keşfedildi

Yapay zeka araştırmacıları, metin, görsel ve ses gibi farklı veri türlerini birleştiren çoklu modaliteli büyük dil modellerinin (MLLM) akıl yürütme performansını detaylı olarak inceledi. Araştırma, ek modalitelerin her zaman performansı artırmadığını, hatta bazen zararlı olabileceğini ortaya koydu. Altı farklı etkileşim paternini analiz eden yeni bir değerlendirme çerçevesi geliştiren bilim insanları, modalitelerin bağımsız ve yeterli akıl yürütme yolları sağladığında performansı artırdığını, ancak gereksiz veya zincirleme mantıksal bağlantıların performansı düşürdüğünü keşfetti. Bu bulgular, AI sistemlerinin farklı veri türlerini nasıl işlediğini anlamamızı derinleştiriyor ve gelecekteki çoklu modaliteli AI sistemlerinin tasarımında kritik önem taşıyor.

arXiv — Hesaplamalı Dilbilim (cs.CL) 0
Teknoloji & Yapay Zeka
30 Apr

Yapay Zeka Modelleri İçin Yeni Bilgi Depolama Yöntemi Geliştirildi

Araştırmacılar, yapay zeka modellerinin dış kaynaklardan bilgi alırken karşılaştığı önemli bir sorunu çözmek için yenilikçi bir yaklaşım geliştirdi. Parametrik Retrieval-Augmented Generation (PRAG) sistemlerinde, farklı belgelerden gelen bilgiler birleştirildiğinde karışıklık yaşanıyordu. Yeni geliştirilen Orthogonal Subspace Decomposition (OSD) yöntemi, belge-özgü bilgileri görev-çözme davranışlarından ayırarak bu sorunu çözmeyi hedefliyor. Bu gelişme, AI sistemlerinin daha güvenilir ve tutarlı bilgi işleme kapasitesini artırabilir.

arXiv (Dilbilim & NLP) 0
Teknoloji & Yapay Zeka
21 Apr

Büyük Dil Modelleri İnsan Gibi 'Satır Arası' Okuyabiliyor mu?

Araştırmacılar, yapay zeka modellerinin insanlar gibi ima edilen anlamları çıkarıp çıkaramadığını test etti. Büyük dil modellerinin gizli bilgileri nasıl yorumladığını inceleyen çalışma, AI'ların sosyal bağlamlarda insanlardan daha temkinli davrandığını ortaya koydu. İnsanlar ise kısa ve olgusal metinlerde daha ihtiyatlı yaklaşım sergiliyor. Çalışmada özel bir yapay zeka sistemi geliştirildi ve insan değerlendirmeleriyle karşılaştırıldı. Sonuçlar, mevcut AI teknolojisinin ima edilen bilgileri yakalamada sınırlı kaldığını gösteriyor. Bu bulgular, yapay zekanın insan iletişimindeki nüansları anlama kapasitesini değerlendirmek açısından önemli.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinin Bilgi Derinliği Sorunu: Buzdağının Görünmeyen Yüzü

Araştırmacılar, büyük dil modellerinin görünüşte basit sorularda ciddi zorlanmalar yaşadığını keşfetti. KnowledgeBerg adlı yeni benchmark çalışması, bu modellerin sistematik bilgi kapsamı ve kompozisyonel muhakeme konularında büyük eksiklikler bulunduğunu ortaya koyuyor. 10 farklı alanda ve 17 dilde yapılan testlerde, açık kaynak modellerin evren numaralandırmasında sadece %5-37 başarı oranı gösterdiği belirlendi. Bu bulgular, AI modellerinin 'buzdağının görünen kısmı' gibi yüzeysel yanıtlar verebildiğini ancak derinlemesine sistematik düşünmede yetersiz kaldığını gösteriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modelleri Neden Son Bilgileri Hatırlar? Bilim İnsanları Sırrı Çözdü

Yapay zeka chatbotları ve dil modelleri sohbette en son söylenen bilgileri daha iyi hatırlama eğilimi gösterir. Bu 'yakınlık yanlılığı' olarak bilinen davranışın arkasındaki mekanizma şimdiye kadar gizemdi. Araştırmacılar, Transformer mimarisinin temel bileşenlerinden LayerNorm'un bu yanlılığın asıl sorumlusu olduğunu keşfetti. Çalışma, yapay zeka modellerinin neden bazen eski bilgileri 'unutup' yeni bilgileri öne çıkardığını açıklıyor. Bu bulgular, gelecekte daha dengeli ve güvenilir yapay zeka sistemleri geliştirilmesine yardımcı olabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinin Beyninde 'Kültür Nöronları' Keşfedildi

Araştırmacılar, görü-dil yapay zeka modellerinin içinde belirli kültürlere duyarlı özel nöronların varlığını kanıtladı. Bu 'kültür nöronları', farklı kültürel bağlamlardaki görselleri işlerken aktifleşen ve o kültürle ilgili soruları yanıtlamada kritik rol oynayan sinir ağı bileşenleri olarak tanımlanıyor. 25 farklı kültür grubunda yapılan deneyler, bu nöronlar devre dışı bırakıldığında modellerin ilgili kültürel sorularda başarısının dramatik şekilde düştüğünü gösterdi. Bulgular, yapay zekanın kültürel bilgiyi nasıl işlediğini anlamamıza yeni bir perspektif sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Ajanları Artık 'Hayatta Kalma' Modeliyle Hedef Öğrenecek

Araştırmacılar, yapay zeka ajanlarının hedef odaklı öğrenmesini geliştirmek için 'hayatta kalma öğrenimi' adında yenilikçi bir yaklaşım geliştirdi. Geleneksel pekiştirmeli öğrenme yöntemlerinin kararsızlık ve verimsizlik sorunlarına alternatif olarak sunulan bu yöntem, bir hedefe ulaşma süresini olasılık dağılımı olarak modelliyor. SVL (Survival Value Learning) adlı bu yaklaşım, tıp alanında kullanılan hayatta kalma analizinden ilham alıyor ve AI ajanlarının hedeflerine ulaşma sürecini daha kararlı bir şekilde öğrenmelerini sağlıyor. Yöntem, hem tamamlanmış hem de yarıda kesilmiş görev deneyimlerinden öğrenebiliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay zeka modellerinin yetenekleri artık kendi iç dünyalarından keşfediliyor

Yapay zeka araştırmacıları, dil modellerinin yeteneklerini anlamak için yeni bir yaklaşım geliştirdi. Geleneksel yöntemler, insanların önceden belirlediği kategorilere dayalı değerlendirmeler yapıyordu. Yeni yaklaşım ise modellerin kendi iç temsillerini analiz ederek, hangi becerilere sahip olduklarını ortaya çıkarıyor. Bu 'model-doğal' yaklaşım, yapay zekanın davranışlarını değiştirmek ve geliştirmek için çok daha etkili olabilir. Araştırmacılar, modelin aktivasyon verilerinden kompakt bir temel oluşturarak, anlam açısından yorumlanabilir ama önceden tanımlanmış insan kategorilerine bağlı olmayan beceri eksenlerini keşfetti. Bu yöntem, modelin kendi davranış değişkenliği etrafında organize olduğu eksenleri yakalar ve yapay zeka eğitiminde veri seçimi gibi uygulamalarda kullanılabiliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Ekipleri Neden Yaratıcılığını Kaybediyor? Bilim İnsanları Çözümü Buldu

MIT ve Stanford araştırmacıları, birden fazla yapay zeka ajanının birlikte çalıştığı sistemlerde beklenmedik bir sorunla karşılaştı. Teoride daha yaratıcı ve çeşitli fikirler üretmesi beklenen AI ekipleri, pratikte birbirine benzer çözümler üretiyor ve yaratıcılık çeşitliliği kayboluyor. Araştırma, bu 'kolektif başarısızlığın' üç ana nedeni olduğunu ortaya koyuyor: Daha güçlü AI modelleri paradoks yaratan şekilde daha az çeşitli fikirler üretiyor, otorite odaklı gruplar yaratıcılığı bastırıyor ve büyük gruplar erken konverjansa sürükleniyor. Bu bulgular, AI sistemlerinin tasarımında önemli değişikliklere işaret ediyor ve gelecekteki çok-ajanlı sistemlerin nasıl optimize edileceği konusunda yeni perspektifler sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modelleri Hangi Düşünce Adımlarının Önemli Olduğunu Biliyor

Araştırmacılar, dil modellerinin karmaşık problemleri çözerken oluşturdukları uzun mantık zincirlerindeki hangi adımların kritik olduğunu nasıl bildiklerini inceledi. Stanford ve diğer kurumlardan bilim insanları, modellerin dahili aktivasyonlarını analiz ederek şaşırtıcı bir keşif yaptı: Yapay zeka modelleri, bir sonraki adımı üretmeden önce bile hangi düşünce adımlarının önemli olduğunu içsel olarak kodluyor. Bu bulgular, AI sistemlerinin akıl yürütme süreçlerini anlamamızda yeni bir pencere açıyor ve modellerin sadece metin üretmekle kalmayıp, düşünce süreçlerinin önemini de değerlendirdiğini gösteriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinin 'Ortak Gerçeklik' İddiası Çürütüldü

Platonik Temsil Hipotezi, farklı veri türleriyle (metin, görsel) eğitilen yapay zeka modellerinin zamanla aynı gerçeklik temsiline yakınsadığını öne sürüyordu. MIT araştırmacıları bu iddianın yanıltıcı olduğunu ortaya koydu. Küçük veri setlerinde gözlenen benzerliğin, milyonlarca örneğe çıkıldığında büyük ölçüde kaybolduğunu keşfettiler. Araştırma, modeller arası uyumun sadece yüzeysel anlamsal örtüşmeden kaynaklandığını ve detaylı yapısal benzerliklerin bulunmadığını gösteriyor. Bu bulgular, farklı modalitelerin AI sistemlerinde hala önemli farklar yarattığını ve tek bir 'evrensel temsil' yaklaşımının mümkün olmadığını işaret ediyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

AI Modelleri 'Bu' ve 'Şu' Kelimelerini Kullanmakta İnsanlardan Çok Daha Zorlanıyor

Yapay zeka modellerinin günlük iletişimde ne kadar başarılı olduğunu test eden yeni bir araştırma, çarpıcı sonuçlar ortaya koydu. Çok modlu dil modelleri, basit kelime dağarcığında insanlara yakın performans gösterirken, 'benim-senin' gibi sahiplik ifadelerinde ve özellikle 'bu-şu' gibi işaret kelimelerinde ciddi zorluklar yaşıyor. Araştırmacılar, yedi farklı yapay zeka modelini insan katılımcılarla karşılaştırdı ve perspektif gerektiren kelimelerin hem insanlar hem de AI'lar için zor olduğunu, ancak bu zorluğun AI'larda çok daha belirgin olduğunu keşfetti. Bu bulgular, yapay zekanın henüz insan benzeri bakış açısı anlayışında önemli eksikleri olduğunu ve geliştirilmesi gereken alanları işaret ediyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinde Görev Türü, Bilgi Kaynaklarını Nasıl Etkiliyor?

Büyük dil modellerinin (LLM) hem verilen bağlamsal bilgiyi hem de öğrenilmiş parametrik hafızalarını kullandıkları biliniyordu. Ancak bu iki kaynak birbiriyle çeliştiğinde ne olur? Yeni araştırma, farklı görev türlerinin AI modellerinin hangi bilgi kaynağına öncelik verdiğini şekillendirdiğini ortaya koyuyor. Model-bağımsız bir test çerçevesi geliştiren bilim insanları, çelişkili bilgi durumlarında performans düşüşünün görevin gerektirdiği bilgi türüne ve çelişkinin mantıklılığına bağlı olduğunu keşfetti. Araştırma, bağlam tekrarı gibi stratejilerin sadece bağlam gerektiren görevlerde yararlı olduğunu, ancak parametrik bilgi gerektiren görevlerde zararlı olabileceğini gösteriyor. Bu bulgular, AI modellerinin farklı durumlarda nasıl karar verdiğini anlamamız açısından kritik öneme sahip.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinde Semantik Modüllerin Haritası Çıkarıldı

Araştırmacılar, büyük dil modellerinin (LLM) beyninde anlam taşıyan bileşenlerin nasıl organize olduğunu keşfetti. Stanford Üniversitesi'nden bilim insanları, seyrek kodlayıcılar kullanarak sadece birkaç örnekle bu modellerin kavram ve ilişki modüllerini haritalandırdı. Çalışma, ülke-başkent gibi kavram çiftlerinde modelin hangi bölümlerinin aktif olduğunu gösteriyor. Bu bileşenleri engellediklerinde modelin çıktıları öngörülebilir şekilde değişiyor, güçlendirdiklerinde ise farklı senaryolar üretiyor. En ilginç bulgu, basit kavramların ilk katmanlarda, karmaşık ilişkilerin ise derin katmanlarda oluşması. Bu keşif, AI sistemlerinin iç işleyişini anlamamızda önemli bir adım.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modelleri İçin Yeni Karşıolgusal Analiz Yöntemi Geliştirildi

Araştırmacılar, büyük dil modellerinin (LLM) davranışlarını anlamak için karşıolgusal senaryolar üretebilen yeni bir yöntem geliştirdi. Bu yaklaşım, 'eğer farklı bir soru sorulsaydı, yapay zeka nasıl yanıt verirdi' türündeki hipotetik durumları analiz etmeyi mümkün kılıyor. Mevcut yöntemlerin yapay zeka modellerini yorumlamada belirsizlikler içerdiğini savunan araştırma, daha basit ve etkili bir alternatif sunuyor. Bu gelişme, yapay zeka sistemlerinin karar verme süreçlerini açıklamak, performanslarını değerlendirmek ve gelecekte daha iyi modeller tasarlamak açısından kritik önem taşıyor. Çalışma, özellikle büyük dil modellerinin neden belirli yanıtlar verdiğini anlamamıza yardımcı olacak araçlar geliştirme konusunda önemli bir adım.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Sosyal İlişkileri Anlama Konusunda Yetersiz Kalıyor

Araştırmacılar, büyük dil modellerinin (LLM) sosyal ilişkileri anlama yetisini test etmek için SCRIPTS adlı yeni bir veri seti geliştirdiler. Film senaryolarından alınan 1100 diyaloğu içeren bu veri setiyle yapılan testlerde, yapay zeka modellerinin konuşmacılar arasındaki ilişkileri (arkadaş, sevgili, aile vb.) tespit etme başarısı İngilizce için %75-80, Korece için ise sadece %58-69 seviyesinde kaldı. Özellikle düşünce zinciri yönteminin sosyal akıl yürütmede beklenen faydayı sağlamadığı, hatta bazen sosyal önyargıları artırdığı gözlemlendi. Bu bulgular, yapay zekanın insan etkileşimlerinde kritik olan sosyal anlayış konusundaki sınırlarını ortaya koyuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay zeka hedeflerini nasıl seçer? Yeni 'öznel fonksiyon' yaklaşımı

Araştırmacılar, yapay zekanın nasıl hedef belirleyebileceği sorununa yeni bir yaklaşım geliştirdi. 'Öznel fonksiyon' adı verilen bu kavram, dışarıdan verilen görevler yerine sistemin kendi özelliklerine dayalı hedefler oluşturmasını öngörüyor. İnsan zekası, duruma göre yeni amaçlar belirlemede oldukça başarılı. Araştırma, bu yeteneğin yapay sistemlere nasıl kazandırılabileceğini inceliyor. Önerilen yaklaşım, psikoloji, sinirbilim ve makine öğrenmesi alanlarındaki mevcut bilgilerle güçlü bağlantılar kuruyor. Bu çalışma, yapay zekanın daha esnek ve uyarlanabilir hale gelmesi açısından önemli bir adım olabilir.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zekanın 'Eureka!' Anları Gerçek mi? Yeni Araştırma Şaşırtıcı Sonuçlar Buldu

DeepSeek-R1-Zero gibi gelişmiş yapay zeka modellerinin ani 'içgörü' anları yaşayıp yaşamadığını inceleyen kapsamlı bir araştırma, beklenmedik sonuçlar ortaya koydu. 1 milyondan fazla akıl yürütme sürecini analiz eden bilim insanları, bu modellerin akıl yürütme stratejilerindeki ani değişikliklerin aslında performansı nadiren iyileştirdiğini keşfetti. Araştırma, yapay zekanın insan benzeri 'aha!' anlarının büyük ölçüde bir yanılsama olduğunu gösteriyor. Ancak çalışma, modelin belirsizlik düzeyi yüksek olduğunda yapay tetikleyicilerle başarı oranının artırılabileceğini de ortaya koyuyor. Bu bulgular, AI'nın akıl yürütme süreçlerinin gerçek doğası hakkında önemli ipuçları sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Rorschach Testinde: AI Lekelerden Ne Görüyor?

Araştırmacılar, insan psikolojisini anlamak için kullanılan ünlü Rorschach mürekkep lekesi testini 61 farklı yapay zeka modeline uyguladı. ImageNet veri seti üzerinde eğitilmiş bu AI modelleri, belirsiz ve soyut görüntüleri nasıl yorumladıklarında şaşırtıcı sonuçlar ortaya çıktı. Çalışma, yapay zekanın görsel algı mekanizmalarını insan psikolojisi perspektifiyle karşılaştırarak, AI'ın belirsizlikle nasıl başa çıktığını inceliyor. Bu ilginç deney, hem AI'ın sınırlarını hem de görsel tanıma sistemlerinin işleyişini anlamamızda yeni bir yaklaşım sunuyor. Bulgular, farklı AI mimarilerinin belirsiz görüntüleri nasıl farklı şekillerde yorumladığını ve bu yorumların insan yanıtlarıyla nasıl karşılaştırıldığını gösteriyor.

arXiv (Fizik) 0