...
"AI şeffaflığı" için 36 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
36 haber
Nörobilim & Psikoloji
Beyin Dalgalarının Gizli Durumları Yapay Zeka ile Çözülüyor
Bilim insanları, beynin elektriksel aktivitesini anlamamızı sağlayacak yeni bir yapay zeka modeli geliştirdi. EEG mikro-durumu analizi, sürekli beyin aktivitesini kısa süreli kararlı yapılar halinde bölerek farklı beyin fonksiyonlarını ortaya çıkarır. Geleneksel yöntemler katı sınıflandırma kullanırken, yeni Conv-VaDE modeli hem görüntü yeniden oluşturma hem de olasılıksal kümeleme öğrenir. Bu yaklaşım, beyin durumlarının kafa derisi haritalarına dönüştürülmesine olanak tanıyarak şeffaflığı artırır. Model, 3-20 arası küme sayısı ve farklı parametrelerle test edilerek en optimal yapı aranıyor.
Teknoloji & Yapay Zeka
Küçük dil modelleri artık tablo verilerini kaynak göstererek analiz edebiliyor
Araştırmacılar, küçük dil modellerinin tablo verilerini analiz ederken hangi hücrelerden bilgi aldığını şeffaf bir şekilde gösterebilen RSAT yöntemini geliştirdi. Bu yenilik, yapay zeka sistemlerinin güvenilirliği açısından önemli bir adım. 1-8 milyar parametreli modeller üzerinde test edilen sistem, her akıl yürütme adımını kaynak hücrelerle eşleştirerek doğrulanabilir sonuçlar üretiyor. Geleneksel yaklaşımlarda kullanıcılar, AI'nın hangi verileri kullanarak sonuca ulaştığını bilemiyordu. RSAT ise adım adım mantık yürütme sürecinde kullanılan her tablo hücresini işaret ederek bu sorunu çözüyor. Test sonuçları, sistemin güvenilirliğini 3,7 kat artırdığını ve kaynak gösterme doğruluğunun yüzde 99,2'ye ulaştığını gösteriyor.
Teknoloji & Yapay Zeka
Yapay Zeka ve İnsan İşbirliğinde AI'nin Rolünü Takip Etmek Artık Mümkün
Yapay zeka teknolojisi geliştikçe, insan-makine simbiyozunda AI'nin oynadığı rolü belirlemek zorlaşıyor. Araştırmacılar, AI tarafından üretilen içeriğin artık sadece makinelerden değil, insan-AI etkileşiminden doğduğunu vurguluyor. Bu durum, AI'nin bir metinde nasıl rol oynadığını anlamayı kritik hale getiriyor. Yeni çalışma, doğal dil üretiminde yapay zekanın işlevsel rolünü izlemek için bir metodoloji öneriyor. Bu yaklaşım, AI destekli içerik üretiminin şeffaflığını artırabilir ve etik kullanım standartları geliştirilmesine katkı sağlayabilir.
Teknoloji & Yapay Zeka
Yapay zeka modellerinin aşırı güvensizliği çözüldü: ADVICE yöntemi
Büyük dil modelleri doğal dilde güven seviyelerini ifade edebiliyor ancak sistematik olarak aşırı güvenli davranıyorlar. Stanford araştırmacıları bu sorunun temel nedenini keşfetti: modeller güven tahminlerini kendi verdikleri cevaptan bağımsız yapıyor. Geliştirilen ADVICE yöntemi, modellerin güven seviyelerini kendi cevaplarına dayandırmasını sağlayarak bu sorunu çözüyor. Yapılan deneyler, yöntemin güven kalibrasyonunu önemli ölçüde iyileştirdiğini ve farklı durumlara güçlü genelleme yapabildiğini gösteriyor. Bu gelişme yapay zeka sistemlerinin şeffaflığı ve güvenilirliği açısından önemli bir adım.
Teknoloji & Yapay Zeka
NanoKnow: Yapay Zekanın Bilgi Kaynağını Haritalandıran Yeni Araştırma
Büyük dil modelleri nasıl öğrendiklerini nereden biliyorlar? Bu sorunun cevabı, eğitim verilerinin genellikle 'kara kutu' gibi kapalı olması nedeniyle zor bulunuyordu. Araştırmacılar, tamamen açık eğitim verileriyle geliştirilmiş nanochat modellerini kullanarak NanoKnow adlı yeni bir veri seti geliştirdi. Bu çalışma, yapay zekanın parametrik bilgisinin nereden geldiğini şeffaf bir şekilde gösteriyor. NanoKnow, Natural Questions ve SQuAD veri setlerindeki soruları, cevaplarının nanochat'in eğitim korpusunda bulunup bulunmamasına göre ayırarak, dil modellerinin çıktı üretirken hangi bilgi kaynaklarına güvendiğini anlamayı mümkün kılıyor. Sekiz farklı nanochat checkpoint'i üzerinde yapılan deneyler, kapalı kitap doğruluğunun eğitim verilerindeki cevap sıklığından güçlü şekilde etkilendiğini ortaya koyuyor.
Teknoloji & Yapay Zeka
AI Sistemleri Artık Politikacıların Kaçamak Yanıtlarını Tespit Edebiliyor
Araştırmacılar, siyasi röportajlardaki kaçamak yanıtları ve belirsiz ifadeleri otomatik olarak tespit edebilen yapay zeka sistemi geliştirdi. Bükreş Üniversitesi ekibi, RoBERTa dil modeline dayalı sistem ile politikacıların sorulara ne kadar açık yanıt verdiklerini ve hangi kaçamak stratejilerini kullandıklarını belirleyebiliyor. Sistem, uzun metinleri parçalara bölen özel tekniklerle standart yapay zeka modellerinin sınırlarını aşıyor ve %80 doğrulukla kaçamak yanıtları tespit ediyor. Bu gelişme, siyasi iletişimin şeffaflığının artırılması ve seçmenlerin daha bilinçli karar vermesi açısından önemli.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Hafızasını Ölçmenin Yeni Yolu Keşfedildi
Araştırmacılar, büyük dil modellerinin (LLM) eğitim verilerini ne kadar ezberlediklerini ölçmek için yeni bir yöntem geliştirdi. Veri sıkıştırılabilirliği üzerine kurulu bu yöntem, modellerin hafızalarını ilk kez güvenilir şekilde sayısallaştırmayı mümkün kılıyor. Çalışmada keşfedilen 'Entropi-Ezberleme Doğrusallığı' yasası, veri entropisinin ezberleme skorlarıyla doğrusal ilişki sergilediğini gösteriyor. Bu buluş, yapay zeka modellerinin şeffaflığı ve güvenilirliği açısından önemli bir adım teşkil ediyor. Özellikle telif hakları ve veri gizliliği konularında artan endişeler göz önüne alındığında, modellerin hangi bilgileri ezberleyip yeniden üretebileceğini anlamak kritik önem taşıyor.
Teknoloji & Yapay Zeka
Elektronik oylamada gizlilik ve şeffaflığı bir arada sunan yeni protokol
Araştırmacılar, elektronik seçim sistemlerinde uzun süredir devam eden bir soruna çözüm getiren yenilikçi bir protokol geliştirdi. ACE adı verilen bu sistem, seçim sonuçlarının herkes tarafından doğrulanabilmesini sağlarken, aynı zamanda seçmenlerin gizliliğini de koruma altına alıyor. Geleneksel elektronik oylama sistemleri genellikle şeffaflık ve gizlilik arasında seçim yapmak zorunda kalırken, yeni protokol her iki özelliği de başarıyla harmanlıyor. Sistem, oy dağılımını gizli tutarak kamu denetimi imkanı sunan bir toplama mekanizması kullanıyor ve güvenilmeyen istemci varsayımları altında bile doğru oy kullanımını garanti eden bir denetim sistemi içeriyor. Bu gelişme, demokratik süreçlerde elektronik sistemlerin daha güvenli kullanımına önemli bir katkı sağlayabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinden Veri Silme Sorunu İçin Yeni Algoritma Geliştirildi
Araştırmacılar, yapay zeka modellerinin belirli eğitim verilerini 'unutması' problemine çözüm getiren yeni bir algoritma geliştirdi. Bu algoritma, bir AI modelinin belirli verileri hiç görmemiş gibi davranmasını sağlayabiliyor. Çalışma, özellikle veri gizliliği ve AI'ın yorumlanabilirliği açısından büyük önem taşıyor. Algoritma, normal eğitim sürecinden sadece logaritmik oranda daha yavaş çalışıyor ve minimal hata oranıyla tahminler yapabiliyor. Bu gelişme, kullanıcıların kişisel verilerinin AI sistemlerinden silinmesi gerekliliği ve modellerin şeffaflığı konularındaki artan endişelere yanıt veriyor. Özellikle GDPR gibi veri koruma düzenlemeleri çerçevesinde, bireylerin verilerinin AI modellerinden kaldırılması hakkına sahip olması nedeniyle bu teknoloji kritik öneme sahip.
Teknoloji & Yapay Zeka
Yapay Zeka Araçlarında Güvenlik Şeffaflığı: Kullanıcılar Neyi Merak Ediyor?
Amerikalı araştırmacılar, yapay zeka araçlarının güvenlik ve gizlilik politikalarının kullanıcı tercihleri üzerindeki etkisini inceledi. 21 kullanıcıyla yapılan görüşmelerde, mevcut güvenlik bilgilerinin genellikle eksik ve güvenilmez algılandığı ortaya çıktı. Kullanıcılar yapay zeka araçlarını seçerken güvenlik politikalarından çok popülerlik gibi dolaylı göstergelere güveniyor. Araştırma, güvenlik konusundaki belirsizliklerin özellikle kritik durumlarda kullanıcıların bu araçları kullanma isteklerini sınırladığını gösteriyor. Bu bulgular, yapay zeka şirketlerinin daha şeffaf ve anlaşılır güvenlik iletişimi geliştirmesi gerektiğini ortaya koyuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Devrelerini Keşfetmek İçin Yeni PIE Çerçevesi Geliştirildi
Araştırmacılar, yapay zeka sistemlerinin nasıl çalıştığını anlamamıza yardımcı olacak yeni bir framework geliştirdi. PIE adı verilen bu sistem, büyük dil modellerinde önemli özellikleri belirleyip gereksiz olanları ayıklayarak, hem hesaplama maliyetini düşürüyor hem de modelin davranışını daha iyi anlamamızı sağlıyor. Cross-layer transcoder (CLT) teknolojisini kullanan bu yaklaşım, modelin hangi özelliklerinin kritik olduğunu tespit ederek, yorumlanabilirlik alanında önemli bir ilerleme sunuyor. Bu gelişme, yapay zeka sistemlerinin şeffaflığını artırarak daha güvenilir AI teknolojilerinin geliştirilmesine katkıda bulunabilir.