...
"şeffaflık" için 39 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
39 haber
Teknoloji & Yapay Zeka
Yapay Zeka Açıklamalarında Gizli Önyargılar Keşfedildi
Stanford araştırmacıları, yapay zeka modellerinin kararlarını açıklayan yöntemlerin beklenmedik önyargılar taşıdığını ortaya çıkardı. Integrated Gradient gibi özellik atfı yöntemlerinin, aynı girdi için farklı sonuçlar üretmesinin ardında yatan nedenler sistematik olarak incelendi. Araştırma, bu açıklama yöntemlerinin hem kelime seçiminde hem de pozisyon tercihlerinde belirli önyargılara sahip olduğunu gösterdi. Bu bulgular, yapay zeka sistemlerinin şeffaflığı ve güvenilirliği açısından kritik öneme sahip. Çalışma, kullanıcıların bu açıklamalara ne ölçüde güvenmeleri gerektiği konusunda önemli sorular gündeme getiriyor.
Teknoloji & Yapay Zeka
İnsanlar AI'nın günlük mesajlarda kullanımını fark edemiyor
Yeni araştırma, insanların yapay zeka tarafından yazılmış metinleri ayırt etmekte zorlandığını ortaya koyuyor. Sık sık AI kullanan kişiler bile, günlük yaşamda karşılaştıkları mesajların yapay zeka tarafından üretilip üretilmediğini anlayamıyor. Araştırmacılar, açık bir uyarı olmadığında insanların mesajların, e-postaların ve flört profilerinin insan tarafından yazıldığını varsaydığını keşfetti. Bu durum, AI'nın günlük hayatımıza ne kadar sessizce sızdığını ve insanların bu teknolojik dönüşümün farkında olmadan yaşadığını gösteriyor. Bulgular, dijital iletişimde şeffaflık ve etik kullanım konularında önemli sorular ortaya çıkarıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Kararlarını Açıklama: Üç Farklı Yöntemin Karşılaştırması
Büyük dil modelleri pek çok alanda başarılı sonuçlar verse de, nasıl karar verdikleri hala bir muamma. Araştırmacılar, yapay zekanın kararlarını anlaşılır hale getirmek için üç farklı açıklanabilirlik tekniğini karşılaştırdı. DistilBERT modeli üzerinde yapılan çalışmada Integrated Gradients, Attention Rollout ve SHAP yöntemleri test edildi. Sonuçlar, gradyan tabanlı yöntemlerin daha kararlı ve sezgisel açıklamalar sunduğunu gösterdi. Bu tür çalışmalar, yapay zekanın güvenilir şekilde kullanılabilmesi için kritik öneme sahip.
Tıp & Sağlık
Tıpta Yapay Zeka: DeepER-Med ile Şeffaf ve Güvenilir Tıbbi Araştırma
Yapay zekanın sağlık alanında yaygın kullanımı için güven ve şeffaflık kritik önem taşıyor. Araştırmacılar, tıbbi araştırmalarda AI kullanımını daha güvenilir hale getirmek için DeepER-Med adlı yeni bir sistem geliştirdi. Bu sistem, kanıt temelli araştırma süreçlerini üç modülde organize ediyor: araştırma planlama, işbirlikçi AI ajanları ve sentez. Mevcut sistemlerin aksine, DeepER-Med kanıt değerlendirmesi için açık ve denetlenebilir kriterlere sahip. Bu yaklaşım, hata birikimini önlemeye yardımcı olurken, araştırmacı ve klinisyenlerin sonuçların güvenilirliğini değerlendirmesini kolaylaştırıyor. Sistem ayrıca karmaşık gerçek dünya tıbbi sorularını değerlendirme konusunda da gelişmiş performans sergiliyor.
Teknoloji & Yapay Zeka
Kuantum Bilgisayarlar İçin İlk Açıklanabilir Regresyon Algoritması Geliştirildi
Araştırmacılar, kuantum bilgisayarlar için ilk açıklanabilir regresyon algoritmasını geliştirdi. Geleneksel hibrit kuantum algoritmaları 'kara kutu' gibi çalışarak sonuçlarının nasıl elde edildiğini açıklayamıyor ve bu durum kritik kararlarda güvenilirlik sorunları yaratıyordu. Yeni algoritma, kuantum durumları içinde klasik veri tablolarını doğrudan kodlayarak ve regresyon katsayılarını gerçek sayılarla ifade ederek tam şeffaflık sağlıyor. Bu yaklaşım, hem model yorumlanabilirliği hem de optimizasyon maliyetlerinde önemli avantajlar sunuyor. Kodlanmış veri yapısı sayesinde hesaplama kapısı karmaşıklığı da azaltılabiliyor.
Fizik
Rydberg Atomları ile Düşük Frekanslı Elektrik Alanı Algılama
Araştırmacılar, olağanüstü büyük elektrik dipol momentleri olan Rydberg atomlarını kullanarak düşük frekanslı elektrik alanlarını algılayabilecek yeni bir yöntem geliştirdi. Bu çalışma, güç sistemlerinde yaygın olan quasi-DC ve düşük frekans bantlarındaki elektrik alanlarının tespitine odaklanıyor. Mevcut araştırmalar çoğunlukla mikrodalga rejiminde yoğunlaşırken, bu yeni yaklaşım elektrik alan algılamasında önemli bir boşluğu dolduruyor. Fisher bilgisi ve Cramér-Rao alt sınırı çerçevesinde geliştirilen teorik model, elektromanyetik kaynaklı şeffaflık ölçümlerinin temel hassasiyet limitlerini belirlemeyi mümkün kılıyor.
Teknoloji & Yapay Zeka
Kanada'nın AI Kayıt Sistemi: Şeffaflık mı, Sansür mü?
Kanada hükümeti, yapay zeka sistemlerinin şeffaflığını artırmak için 2025'te Federal AI Kaydı'nı kullanıma sundu. Ancak yeni bir araştırma, bu kayıt sisteminin gerçek bir şeffaflık aracı olmaktan çok, hesap verebilirliğin sınırlarını belirleyen bir kontrol mekanizması olduğunu ortaya koyuyor. 409 AI sisteminin analiz edildiği çalışmada, sistemlerin %86'sının iç verimlilik için kullanıldığı, ancak kayıtların bu sistemlerin işletilmesinde gereken insan müdahalesi, eğitim süreçleri ve belirsizlik yönetimini sistematik olarak gizlediği tespit edildi. Araştırmacılar, "egemen yapay zeka" söylemi ile bürokrasideki gerçek uygulamalar arasında keskin bir farklılık olduğunu vurguluyor.
Teknoloji & Yapay Zeka
Otonom araçlar artık kendi kararlarını sorgulayacak: AutoDrive-R² sistemi
Araştırmacılar, otonom sürüş sistemlerinin karar verme süreçlerini daha anlaşılır ve güvenilir hale getiren yeni bir yapay zeka modeli geliştirdi. AutoDrive-R² adlı sistem, görsel ve dil işleme yeteneklerini birleştirerek sadece sürüş kararları almakla kalmıyor, aynı zamanda bu kararların mantığını açıklayabiliyor ve kendi kendini sorgulayabiliyor. Sistem, dört aşamalı mantıksal düşünce zinciri kullanarak girdi bilgileri ile sürüş eylemlerini bağlıyor ve pekiştirmeli öğrenme ile kendini sürekli geliştiriyor. Bu gelişme, otonom araçların 'kara kutu' problemini çözerek güvenlik ve şeffaflık açısından önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Artık Kendi Düşüncelerini Açıklayabilecek
Büyük dil modelleri birçok alanda başarılı sonuçlar verse de, nasıl çalıştıkları tam olarak anlaşılamıyor. Bu durum güvenilirlik sorunları yaratıyor. Araştırmacılar, modellerin dışarıdan analiz edilmesi yerine, baştan şeffaf tasarlanması gerektiğini savunuyor. Yeni araştırma, bu 'içsel yorumlanabilirlik' yaklaşımının beş temel yöntemini inceliyor: işlevsel şeffaflık, kavram uyumlaması, temsil ayrıştırması, açık modülerleşme ve gizli seyreklik. Bu yaklaşımlar, yapay zekanın karar verme süreçlerini daha anlaşılır hale getirerek, teknolojiye olan güveni artırabilir.
Tıp & Sağlık
Beyin Tümörü Teşhisinde Yapay Zeka: Yeni Frekans Tabanlı Sistem %99 Başarıya Ulaştı
Araştırmacılar beyin tümörlerinin sınıflandırılması için çift omurga mimarisine sahip yenilikçi bir yapay zeka sistemi geliştirdi. VGG16 ve Xception ağlarını birleştiren bu sistem, Frekans Kapılı Dikkat Bloğu ile yerel ve küresel özellikleri etkili şekilde yakalayabiliyor. En dikkat çekici özelliği, veri artırma teknikleri kullanmadan %99,24 doğruluk oranına ulaşması. Grad-CAM görselleştirme teknolojisi sayesinde sistemin hangi beyin bölgelerini analiz ederek karar verdiğini görebilen doktorlar, yapay zekanın önerilerini daha güvenle değerlendirebilecek. Bu şeffaflık özelliği, klinik uygulamalarda güven sorununu çözmeye yönelik önemli bir adım.
Teknoloji & Yapay Zeka
Yapay zeka mobil uygulamaların gizlilik çelişkilerini tespit ediyor
Araştırmacılar, mobil uygulamaların Google Play mağazasındaki veri güvenliği beyanları ile gizlilik politikaları arasındaki tutarsızlıkları otomatik olarak tespit eden yeni bir yapay zeka sistemi geliştirdiler. PolicyGapper adı verilen bu sistem, büyük dil modellerini kullanarak uygulamaların gerçek veri toplama uygulamaları ile kullanıcılara sundukları beyanlar arasındaki çelişkileri ortaya çıkarıyor. Araştırma, popüler uygulamaların neredeyse %80'inin eksik veya yanıltıcı gizlilik beyanları içerdiğini göstermişti. Bu yeni teknoloji, kullanıcı verilerinin korunması açısından kritik olan şeffaflık sorununa çözüm getirmeyi hedefliyor. Sistem, uygulama kodlarına erişim gerektirmeden sadece halka açık dokümanları analiz ederek çalışıyor.