"gizlilik" için 79 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
79 haber
Kuantum Teknolojisi ile Mikroşebeke Güvenliğinde Yeni Dönem
Küçük modüler nükleer reaktörler (SMR'ler) ve yapay zeka fabrikaları için tasarlanan mikroşebekeler, enerji altyapısının geleceğini şekillendiriyor. Ancak bu dağıtık güç sistemlerinin siber güvenliği kritik önem taşıyor. Araştırmacılar, kuantum teknolojisinin gücünden yararlanarak mikroşebeke güvenliğini artıran yenilikçi bir çerçeve geliştirdi. Bu yaklaşım, güvenli kuantum ağları, anonim bildirim sistemleri ve kuantum rastgele sayı üretimini bir araya getirerek enerji altyapılarının bütünlük, gizlilik ve mahremiyetini güçlendiriyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Araçlarında Güvenlik Şeffaflığı: Kullanıcılar Neyi Merak Ediyor?
Amerikalı araştırmacılar, yapay zeka araçlarının güvenlik ve gizlilik politikalarının kullanıcı tercihleri üzerindeki etkisini inceledi. 21 kullanıcıyla yapılan görüşmelerde, mevcut güvenlik bilgilerinin genellikle eksik ve güvenilmez algılandığı ortaya çıktı. Kullanıcılar yapay zeka araçlarını seçerken güvenlik politikalarından çok popülerlik gibi dolaylı göstergelere güveniyor. Araştırma, güvenlik konusundaki belirsizliklerin özellikle kritik durumlarda kullanıcıların bu araçları kullanma isteklerini sınırladığını gösteriyor. Bu bulgular, yapay zeka şirketlerinin daha şeffaf ve anlaşılır güvenlik iletişimi geliştirmesi gerektiğini ortaya koyuyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Eğitiminde Yeni Dönem: Federe Öğrenme ile İnsan Geri Bildirimi
Araştırmacılar, yapay zekanın insan geri bildirimlerinden öğrenmesini daha verimli hale getiren yeni bir yöntem geliştirdi. Par-S²ZPO adı verilen bu algoritma, akıllı telefonlar gibi sınırlı kaynaklara sahip cihazların bile büyük AI modellerinin eğitimine katkıda bulunmasını sağlıyor. Federe öğrenme prensibiyle çalışan sistem, verileri merkezi bir sunucuda toplamak yerine, her cihazın kendi verisiyle öğrenip sonuçları paylaşmasına dayanıyor. Bu sayede hem gizlilik korunuyor hem de iletişim maliyetleri düşürülüyor. Yöntemin en büyük yenliği, karmaşık matematiksel hesaplamalar yerine basit ikili işlemler kullanması. Deneyler, bu yaklaşımın geleneksel merkezi yöntemler kadar etkili olduğunu ve hatta bazı durumlarda daha hızlı sonuç verdiğini gösteriyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay zeka sentetik veri ile sosyal medya analizi yapıyor
Fransız araştırmacılar, sosyal medya verilerini analiz etmek için yenilikçi bir yapay zeka sistemi geliştirdi. Sistem, gerçek kullanıcı verilerine ihtiyaç duymadan sentetik tweetler üreterek müşteri memnuniyetsizliğini tespit edebiliyor. 1,7 milyon sentetik tweet ile eğitilen model, toplu taşıma şikayetlerini %77-79 doğrulukla belirliyor. Bu yaklaşım hem veri gizliliği sorununu çözüyor hem de pahalı etiketleme maliyetlerini ortadan kaldırıyor. Özellikle çok dilli ortamlarda büyük avantaj sağlayan sistem, ticari yapay zeka modellerinin performansını yakalayarak sosyal medya analizinde yeni bir dönemin kapısını aralıyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Ajanları Artık Edge Cihazlarda Güvenle Çalışabilecek
Büyük dil modeli tabanlı yapay zeka ajanları, güçlü otomasyon yetenekleri sunmasına rağmen geleneksel uygulamalara göre çok daha geniş bir saldırı yüzeyine sahip. Bulut tabanlı hizmetlerin aksine, gecikmeyi azaltmak ve kullanıcı gizliliğini artırmak için edge cihazlarda çalıştırılan ajanlar yeni güvenlik sorunları yaratıyor. Araştırmacılar, bu sorunu çözmek için AgenTEE adlı yeni bir sistem geliştirdi. Bu sistem, yapay zeka ajanlarının edge cihazlarda güvenli bir şekilde çalışmasını sağlıyor ve hem özel varlıkları hem de hassas çalışma zamanı verilerini koruyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Araç Zincirlerinde Gizli Saldırılar: MCP Ekosistemindeki Yeni Tehdit
Araştırmacılar, büyük dil modellerinin (LLM) dış sistemlerle entegrasyonunda kullanılan Model Context Protocol (MCP) ekosisteminde yeni bir güvenlik tehdidi keşfetti. 'Parazitik Araç Zinciri Saldırıları' olarak adlandırılan bu tehdit, yapay zekanın pasif bilgi işleyiciden aktif görev orchestratörüne dönüşümüyle ortaya çıkıyor. Saldırganlar, kurbanın doğrudan etkileşimine gerek duymadan, LLM'lerin meşru görevler sırasında eriştiği dış veri kaynaklarına kötü amaçlı talimatlar gömebiliyor. Bu durum, geleneksel prompt enjeksiyonu ve araç zehirleme saldırılarından farklı olarak, tek çıktıları manipüle etmek yerine tüm yürütme akışını ele geçirmeyi hedefliyor. MCP Unintended Privacy Disclosure (MCP-UPD) olarak örneklendirilen bu sistematik gizlilik sızıntısı saldırı modeli, LLM destekli uygulamaların yaygınlaşmasıyla birlikte saldırı yüzeyinin genişlediğini gösteriyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Öğrencilerin Sınıftaki Davranışlarını Analiz Etmeyi Öğrendi
Araştırmacılar, sınıf ortamında öğrencilerin nasıl davrandığını ve ne kadar aktif olduklarını ölçebilen yeni bir yapay zeka sistemi geliştirdi. Sistem, görsel-dil modelleri ve büyük dil modellerini birleştirerek öğrencilerin davranışlarını analiz ediyor. En önemli yenilik, öğrencilerin davranışlarını sadece bireysel olarak değil, sınıf arkadaşlarının etkisi de göz önüne alarak değerlendirmesi. Bu yaklaşım, az miktarda eğitim verisiyle bile etkili sonuçlar elde edebiliyor ve gizlilik endişelerini azaltıyor. Araştırma, eğitim kalitesinin artırılması ve öğrenci katılımının daha iyi anlaşılması açısından önemli bir adım.
arXiv (CS + AI) · 23 gün önce
0
Online Propaganda Tespitinde Gizlilik Riskleri: PROMPT Çerçevesiyle Yeni Çözümler
Araştırmacılar, sosyal medyada propaganda tespit sistemlerinin kullanıcı gizliliğini nasıl tehdit ettiğini analiz etti. 162 bilimsel çalışmayı inceleyen araştırma, veri toplama, özellik çıkarma ve model çıkarımı aşamalarında ciddi gizlilik risklerinin bulunduğunu ortaya koydu. Geliştirilen PROMPT çerçevesi, gizlilik, doğruluk ve maliyet arasında denge kurarak bu riskleri azaltmak için stratejiler sunuyor. Çalışma, mevcut sistemlerin çoğunun GDPR ve CCPA gibi veri koruma düzenlemelerine uyum sağlamadığını gösteriyor. Bu bulgular, yapay zeka destekli propaganda tespit sistemlerinin geliştirilmesinde gizlilik koruma önlemlerinin kritik önemini vurguluyor.
arXiv (CS + AI) · 23 gün önce
0
Dijital Gizlilik Eğitimi: HCI Alanında Yeni Nesil Öğretim Yaklaşımı
Araştırmacılar, insan-bilgisayar etkileşimi (HCI) alanında gizlilik konusunun öğretimi için yenilikçi bir eğitim programı geliştirdi. Geleneksel teori ağırlıklı derslerden farklı olarak, 15 haftalık bu lisansüstü program aktif öğrenme yöntemleriyle gerçek dünya uygulamalarına odaklanıyor. Program, rol yapma aktiviteleri, vaka analizleri ve çok aşamalı araştırma projeleriyle öğrencilerin gizliliği farklı paydaş perspektiflerinden değerlendirmesini sağlıyor. Modern Gizlilik çerçevesine dayanan müfredat, hem kavramsal anlayış hem de uygulamalı araştırma becerilerini geliştirmeyi hedefliyor. Dijital sistemlerin yaygın veri toplama ve çıkarım süreçlerine dayandığı günümüzde, gelecekteki tasarımcı ve araştırmacıların kullanılabilir gizlilik konusunda eğitilmesi kritik önem taşıyor. İki yıl üst üste uygulanan programın değerlendirme sonuçları, bu yaklaşımın etkinliğini gösteriyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Modellerinde Gizlilik Koruyan Yeni Arama Sistemi Geliştirildi
Büyük dil modelleri ve görsel dil modellerinde kullanılan en yakın komşu arama sistemleri, kullanıcı verilerini güvenlik risklerine maruz bırakıyor. Araştırmacılar, bu sorunu çözmek için hibrit bir güvenlik yaklaşımı geliştirdi. Yeni sistem, tam homomorfik şifreleme ve güvenilir yürütme ortamlarını birleştirerek çok katmanlı bir koruma sağlıyor. Bu teknoloji, hassas verilerin güvenliğini sağlarken performanstan ödün vermeden arama işlemlerini gerçekleştiriyor. Geliştirilen PPPQ-ANN çerçevesi, özellikle büyük ölçekli veri setlerinde kritik öneme sahip.
arXiv (CS + AI) · 23 gün önce
0
Beyin sinyallerini okuyan yapay zeka modelleri gerçek dünya koşullarına uyarlanıyor
EEG tabanlı yapay zeka modelleri, beyin sinyallerinden öğrenme konusunda büyük potansiyel gösteriyor ancak farklı hastane ortamları, cihazlar ve hasta grupları arasındaki veri farklılıkları klinik kullanımlarını zorlaştırıyor. Araştırmacılar, bu modellerin test sırasında yeni verilere uyum sağlayabilmesi için 'test zamanı adaptasyonu' yaklaşımını inceliyor. Bu yöntem, modellerin kaynak verilere erişim olmadan, sadece hedef verilerle çalışma zamanında kendilerini güncelleyebilmesini sağlıyor. Özellikle gizlilik düzenlemeleri ve sınırlı etiketli verilerle karşılaşılan sağlık sektöründe bu özellik oldukça değerli. Yeni geliştirilen NeuroAdapt-Bench sistemi, EEG temel modelleri üzerinde farklı adaptasyon yöntemlerinin etkinliğini değerlendirmek için kapsamlı bir test ortamı sunuyor.
arXiv (CS + AI) · 23 gün önce
0