"mobil güvenlik" için 581 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
581 haber
Yapay Zeka Radyoaktif Madde Tespitinde Yeni Dönem Açıyor
Gama spektroskopisi ile radyoaktif madde tanımlaması, nükleer güvenlik ve tıbbi uygulamalar için kritik öneme sahip. Ancak yapay zeka modellerinin eğitimi için yeterli gerçek veri elde etmek son derece zor ve maliyetli. Araştırmacılar, simülasyon verisiyle eğitilen modellerin gerçek dünyada performans kaybı yaşadığı sorununu çözmek için unsupervised domain adaptation (UDA) tekniklerini test etti. Bu yaklaşım, etiketlenmemiş gerçek verilerden yararlanarak modelin farklı ortamlarda çalışabilme kabiliyetini artırıyor. Özellikle özellik hizalama stratejileri umut verici sonuçlar gösteriyor. Bu gelişme, nükleer tesislerin güvenliği, radyolojik tehditlerin tespiti ve tıbbi izotop tanımlaması gibi kritik alanlarda yapay zeka destekli sistemlerin daha güvenilir hale gelmesini sağlayabilir.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Güvenlik Açıklarında Yeni Keşif: Polinom-Üstel Geçiş
Araştırmacılar, güvenlik önlemleriyle korunan büyük dil modellerinin nasıl manipüle edilebileceğine dair önemli bir keşif yaptı. Çalışma, kötü niyetli saldırıların başarı oranının belirli koşullarda yavaş polinom büyümeden hızlı üstel büyümeye geçebildiğini ortaya koyuyor. Bu geçiş, özellikle zararlı komutların ana sorulara enjekte edilmesiyle tetikleniyor. Araştırma ekibi, bu fenomeni açıklamak için spin-cam sistemlerine dayanan teorik bir model geliştirdi. Bu bulgular, AI güvenlik sistemlerinin nasıl aşılabileceğini anlamamız ve daha sağlam güvenlik önlemleri geliştirmemiz açısından kritik öneme sahip. Özellikle ChatGPT gibi modellerin güvenlik açıkları konusunda yeni perspektifler sunuyor.
arXiv (CS + AI) · 25 gün önce
0
Avrupa'da Dijital Vatanseverlik Yazılım Tercihlerini Değiştiriyor
Araştırmacılar, Avrupa'da yazılım seçimlerini etkileyen yeni bir faktör keşfetti: dijital vatanseverlik. Geleneksel olarak maliyet, güvenlik ve kullanışlılık gibi teknik kriterlerle yapılan yazılım seçimleri, artık ideolojik motivasyonlardan da etkileniyor. 2020 sonrası Avrupa devlet kurumlarının teknoloji kararlarında belirgin bir değişim gözleniyor. Erken dönem geçişler ekonomik nedenlerle yapılırken, son dönemde egemenlik, jeopolitik risk ve yerel sanayi yatırımı gibi stratejik kaygılar öne çıkıyor. 700'den fazla çevrimiçi yorumun analizi, tüketicilerin ve işletmelerin Avrupalı yazılım alternatiflerini tercih ederken fonksiyonel fedakarlıkları kabul etmeye istekli olduğunu gösteriyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Ajanlarının Hafıza Güvenliği İçin İlk Test Platformu Geliştirildi
Araştırmacılar, büyük dil modellerinin hafıza sistemlerindeki güvenlik açıklarını değerlendiren ilk kapsamlı test platformu MemEvoBench'i geliştirdi. Yapay zeka ajanlarına kalıcı hafıza eklenmesi, kişiselleştirilmiş deneyimler sunsa da yeni güvenlik riskleri yaratıyor. Kirli veya önyargılı bilgiler hafızada biriktikçe, AI ajanları anormal davranışlar sergileyebiliyor. Bu yeni platform, 7 farklı alanda 36 risk türünü kapsayan testlerle, AI sistemlerinin uzun vadeli hafıza güvenliğini ölçüyor ve yanıltıcı bilgilere maruz kalma sonucu ortaya çıkan davranışsal sapmaları analiz ediyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Modellerindeki Zararlı Davranışları Kökten Silmek Artık Mümkün
Araştırmacılar, yapay zeka modellerindeki zararlı ve güvenli olmayan davranışları doğrudan kaynaklarından silmek için yeni bir yöntem geliştirdi. Mistral ve LLaVA gibi hizalanmış modeller bile eğitim sürecinden kalma istenmeyen davranışlar sergileyebiliyor. Mevcut güvenlik yöntemleri sadece tercih edilen yanıtları teşvik ediyor ancak zararlı çıktılara neden olan alt ağları doğrudan kaldırmıyor. Yeni geliştirilen 'budama' çerçevesi, gradyant-free bir atıf mekanizması kullanarak bu tehlikeli parametreleri tespit ediyor ve kaldırıyor. Sistem, GPU kaynaklarını verimli kullanırken farklı mimarilerde genelleştirilebiliyor. Deneysel sonuçlar, zararlı üretimlerde önemli azalma ve jailbreak saldırılarına karşı daha iyi direnç gösterirken model performansında minimal kayıp olduğunu ortaya koyuyor.
arXiv (CS + AI) · 25 gün önce
0
Sağlık sistemlerindeki yapay zeka güvenliği için yeni savunma yöntemi geliştirildi
Sağlık gibi kritik alanlarda kullanılan yapay zeka sistemleri, kötü niyetli saldırılara karşı savunmasız kalabiliyor. Araştırmacılar, bu sistemleri korumak için anomali tespit edileri kullanıyor ancak mevcut yöntemler tüm hasta verilerini aynı şekilde işleyerek fizyolojik farklılıkları göz ardı ediyor. Bu durum gürültü yaratıp sistem performansını düşürüyor. Yeni geliştirilen ROAST adlı framework, saldırılara karşı daha az savunmasız olan hastaları belirleyip, eğitimi bu güvenilir veriler üzerine odaklayarak anomali tespitinin başarısını artırıyor. Sistem aynı zamanda hassasiyeti korumak için düşük riskli hasta verilerine yapay saldırı örnekleri ekliyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Görüş Sistemlerine Yeni Saldırı Yöntemi: Kırışıklıklarla Aldatma
Araştırmacılar, görsel-dil modellerinin (VLM) güvenlik açığını ortaya çıkaran yeni bir saldırı yöntemi geliştirdi. Bu yöntem, kumaş kırışıklıklarının fiziğinden ilham alarak, yüzeylerde oluşturulan gerçekçi deformasyonlarla yapay zeka sistemlerini yanıltabiliyor. Çalışma, günümüzde görüntü tanıma, açıklama oluşturma ve görsel soru-cevap gibi alanlarda kullanılan VLM'lerin, esnek yüzeylerdeki kırışıklık gibi fiziksel değişimlere karşı ne kadar savunmasız olduğunu gösteriyor. Geliştirilen parametrik pertürbasyon yöntemi, çok ölçekli kırışıklık alanları oluşturarak fotorealistik görüntü bozulmaları yaratıyor. Bu keşif, yapay zeka güvenliği açısından önemli çünkü gerçek dünyada kolayca uygulanabilir saldırıların mümkün olduğunu ortaya koyuyor.
arXiv (CS + AI) · 25 gün önce
0
Büyük Dil Modellerinde Güvenlik: Eğitimsiz Yöntemler Mercek Altında
Yapay zeka alanında büyük dil modelleri (LLM) giderek yaygınlaşırken, güvenlik endişeleri de artıyor. Bu modeller zararlı içerik üretme, önyargılı yaklaşımlar sergileme ve siber saldırılara karşı kırılgan olma gibi riskler taşıyor. Son dönemde, bu sorunları çözmek için eğitim gerektirmeyen yöntemler geliştirildi. Ancak bu yaklaşımların etkinliği tutarsız şekilde değerlendiriliyor ve beklenmedik yan etkileri bulunuyor. Yeni araştırma, mevcut eğitimsiz güvenlik yöntemlerinin kapsamlı bir analizini sunarak, bu tekniklerin gerçek performansını ortaya koyuyor. Çalışma, hem güvenlik hem de kullanılabilirlik açısından dengeli bir değerlendirme yaparak, yapay zeka güvenliği alanına önemli katkılar sağlıyor.
arXiv (CS + AI) · 25 gün önce
0
Nesnelerin İnterneti için Yeni Güvenlik Yöntemi: SRAM Tabanlı Dijital Parmak İzi
Araştırmacılar, endüstriyel IoT cihazları için yeni bir güvenlik doğrulama sistemi geliştirdi. Bu sistem, her cihazın benzersiz donanım özelliklerini kullanarak dijital parmak izi oluşturuyor. SRAM bellek hücrelerindeki üretim farklılıklarından yararlanan teknik, Hamming kod düzeltmesi ve çoğunluk oylama yöntemleriyle destekleniyor. Geliştirilen sistem, kimlik doğrulama sonrası hata oranını %1'in altında tutmayı başarıyor. Bu yaklaşım, kaynak kısıtlı endüstriyel cihazlarda güvenli kimlik doğrulama sağlarken, hesaplama yükünü minimum seviyede tutuyor. Araştırma, güvenlik ve güvenilirlik arasındaki dengeyi optimize etmek için tasarım bütçesi kavramını sunuyor.
arXiv (CS + AI) · 25 gün önce
0
Kablosuz Haberleşmede Gizlilik Sorunu: Kötü Niyetli Sensörler Nasıl Engellenebilir?
Entegre algılama ve haberleşme sistemleri, iletişim güvenliği sağlansa bile yeni gizlilik riskleri yaratıyor. Araştırmacılar, kötü niyetli sensörlerin radio dalgalarını kullanarak verici hakkında yetkisiz bilgi toplamasını engellemeye yönelik yeni bir framework geliştirdi. Sistem, yapay gürültü ve akıllı yansıtıcı yüzeyler kullanarak vericinin kimliğini ve konumunu korumayı hedefliyor. Bu teknoloji, özellikle hassas alanlarda çalışan kablosuz sistemlerin güvenliğini artırabilir.
arXiv (CS + AI) · 25 gün önce
0
Kuantum Işınlama Artık Kuantum Bilgisayarlara Karşı Korunabilir
Araştırmacılar, kuantum ışınlama teknolojisini gelecekteki kuantum bilgisayar saldırılarına karşı koruyacak yeni bir güvenlik çerçevesi geliştirdi. Kuantum-dirençli kuantum ışınlama (QRQT) adı verilen bu sistem, post-kuantum kriptografi kullanarak klasik düzeltme kanalını güvenli hale getiriyor. Araştırma, kuantum belleğin fiziksel ve hesaplama güvenliği arasında kritik bir bağlantı oluşturduğunu ortaya koyuyor. Sistem, fiber optik kablolar üzerinden maksimum 191-199 km mesafeye güvenli kuantum ışınlama yapabiliyor. Bu teknoloji, kuantum internet altyapısının güvenliği için önemli bir adım teşkil ediyor.
arXiv (CS + AI) · 25 gün önce
0