"düşmanca saldırılar" için 106 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
106 haber
Yapay Zeka Hakem Sistemlerini Gizli Saldırı Komutlarından Koruma Yöntemi Geliştirildi
Bilim dünyasında yapay zeka tabanlı hakemlik sistemlerinin artan kullanımı, yeni güvenlik tehditlerini de beraberinde getiriyor. Araştırmacılar, makalelerin içine gizlenen zararlı komutlarla bu sistemleri manipüle etmeye çalışan saldırıları tespit etmek için yenilikçi bir savunma sistemi geliştirdi. SafeReview adlı bu sistem, sürekli gelişen saldırı yöntemlerine karşı dinamik bir savunma stratejisi benimsiyor. İki yapay zeka modelinin birlikte çalışmasına dayanan sistem, birinin saldırı komutları üretmesi, diğerinin ise bunları tespit etmesi prensibine dayanıyor. Bu yaklaşım, akademik yayıncılığın güvenilirliğini korumak açısından kritik öneme sahip.
arXiv (Dilbilim & NLP) · 15 gün önce
0
Yapay Zeka Güvenliği Eşit Değil: Azınlık Grupları Daha Savunmasız
Yeni bir araştırma, büyük dil modellerinin güvenlik sistemlerinde ciddi bir açık olduğunu ortaya koyuyor. Araştırmacılar, bu sistemlerin tüm toplum kesimlerini eşit şekilde koruduğu varsayımının yanıltıcı olduğunu keşfetti. 'Seçici Güvenlik Tuzağı' olarak adlandırılan bu sorun, modellerin belirli grupları güçlü şekilde korurken, azınlık topluluklarını aynı saldırılara karşı savunmasız bırakmasını ifade ediyor. 14 gelişmiş dil modelini test eden bilim insanları, güvenlik korumasının demografik bir hiyerarşi oluşturduğunu ve aynı model içinde savunma oranlarının %42'ye kadar değişebildiğini saptadı. Bu bulgular, yapay zeka güvenliği değerlendirmelerinin mevcut yaklaşımlarının gözden geçirilmesi gerektiğini gösteriyor.
arXiv (Dilbilim & NLP) · 15 gün önce
0
Yapay Zeka Güvenlik Sistemleri Tek Kelimelik Hilelerle Kandırılabiliyor
Araştırmacılar, büyük dil modellerinin güvenlik sistemlerini atlatmak için yeni bir yöntem geliştirdi. 'Aşamalı Tamamlama Ayrıştırması' adı verilen bu teknik, zararlı içerik üretmekten kaçınacak şekilde eğitilmiş yapay zeka modellerini tek kelime tek kelime kandırarak, sonunda istenmeyen yanıtlar vermesini sağlıyor. Yöntem, modeli önce zararlı bir soruyla ilgili tek kelimeleri tamamlaması için yönlendiriyor, ardından bu kelimeleri birleştirerek tam yanıtı elde ediyor. Çeşitli AI model ailelerinde test edilen teknik, mevcut güvenlik saldırılarından daha başarılı sonuçlar gösterdi. Bu keşif, AI güvenlik sistemlerinin beklenenden daha kırılgan olduğunu ve daha gelişmiş koruma mekanizmalarına ihtiyaç duyulduğunu ortaya koyuyor.
arXiv (Dilbilim & NLP) · 15 gün önce
0
Kuantum ağlarda güvenlik açıkları nasıl tespit edilir?
Araştırmacılar kuantum ağlarda siber saldırılara karşı yeni bir savunma yöntemi geliştirdi. Bu yöntem, oyun teorisi ve kuantum hesaplama tekniklerini birleştirerek, saldırganların hedef alabileceği kritik düğümleri önceden tespit ediyor. Çalışma, kuantum ağlardaki bağlantıların korunması için hangi noktaların en önemli olduğunu belirlemeye odaklanıyor. Geleneksel yöntemlerin hesaplama açısından karmaşık olması nedeniyle, araştırmacılar kuantum algoritmalar kullanarak bu süreci hızlandırıyor. Yöntem, Shapley değerleri ve grafik teorisi kavramlarından yararlanarak, ağdaki her düğümün önemini değerlendiriyor. Bu yaklaşım, kuantum iletişim ağlarının güvenliğini artırmak için praktik bir çözüm sunuyor.
arXiv — Kuantum Fiziği · 15 gün önce
0
COVID-19 salgınının erken döneminde beyin saldıran antikor vakaları ikiye katlandı
Kapsamlı bir laboratuvar verisi analizi, COVID-19 salgınının başlangıcında beyni hedef alan otoimmün antikorların dramatik şekilde arttığını ortaya koydu. Araştırma, bu tehlikeli antikor saldırılarının salgının ilk dalgasında ciddi artış gösterdiğini, ancak toplumsal bağışıklık gelişimi ve aşılama oranlarının yükselmesiyle birlikte normal seviyelere döndüğünü gösteriyor. Bu bulgular, COVID-19'un sadece solunum sistemi üzerindeki etkilerinin yanı sıra, immün sistemin kendi beyin dokularına saldırmasına neden olabileceğini kanıtlıyor. Otoimmün beyin iltihabı vakaları, salgının erken döneminde normal seviyelerin iki katına çıkarken, bu durum virüsün nörolojik etkilerinin ne kadar ciddi olabileceğini gözler önüne seriyor.
PsyPost · 15 gün önce
0
Kuantum İlhamlı Yeni Yöntem Radar Görüntülerini Daha Güvenli Sınıflandırıyor
Araştırmacılar, radar görüntülerinin sınıflandırılmasında devrim yaratabilecek yeni bir yaklaşım geliştirdi. Kuantum mekaniğinden ilham alan tensör ağları kullanılarak oluşturulan bu sistem, geleneksel yöntemlere kıyasla hem daha dayanıklı hem de daha küçük boyutlarda çalışabiliyor. SAR (Sentetik Açıklıklı Radar) görüntüleri, yoğun gürültü ve geniş dinamik aralık nedeniyle sınıflandırma açısından zorlayıcıdır. Yeni yaklaşım, özellikle veri zehirlenmesi saldırılarına karşı güçlü direnç gösteriyor. Bu özellik, askeri uçaklar ve dronlar gibi kritik uygulamalarda büyük önem taşıyor. Geliştirilen model, hem güvenlik açısından sağlamlık hem de cihazlarda verimli çalışma dengesini başarıyla kurarak, radar uygulamaları ve yapay zeka alanında önemli katkılar sunuyor.
arXiv (Fizik) · 16 gün önce
0
Otonom sistemlerin güvenliği için dijital ikiz metodolojisi geliştirildi
Araştırmacılar, otonom platformların siber güvenlik açıklarını değerlendirmek için yeni bir dijital ikiz metodolojisi geliştirdi. Açık kaynak kodlu bu sistem, otonom araçların sensör aldatması, veri tekrarı ve yapay zeka saldırıları gibi tehditlere karşı dayanıklılığını test ediyor. Geleneksel güvenlik testlerinin aksine, bu yaklaşım gerçek operasyonel koşulları simüle ederek tehdit odaklı değerlendirmeler yapıyor. Modüler tasarımı sayesinde farklı otonom sistemlere uyarlanabilen metodoloji, algılama, otonom karar verme ve denetim fonksiyonlarını ayrı ayrı analiz ediyor. Bu çalışma, güvenli otonom sistemlerin geliştirilmesinde kritik bir adım olarak değerlendiriliyor.
arXiv (Robotik) · 16 gün önce
0
Yapay Zeka Öğretmenler Öğrenci Manipülasyonlarına Karşı Ne Kadar Dayanıklı?
Araştırmacılar, eğitimde kullanılan büyük dil modellerinin (LLM) kötü niyetli öğrenci saldırılarına karşı direncini inceledi. Çalışma, öğrencilerin doğrudan cevabı almak için AI öğretmenleri nasıl manipüle edebileceğini araştırıyor. Normal şartlarda AI öğretmenler, öğrencilere hazır cevap vermek yerine rehberlik etmeli. Ancak bazı öğrenciler çeşitli ikna teknikleri kullanarak sistemleri kandırmaya çalışıyor. Araştırmada altı farklı saldırı tekniği test edildi ve çeşitli AI modellerin bu manipülasyonlara ne kadar dayanıklı olduğu ölçüldü. Bu çalışma, eğitim teknolojisinde güvenlik açıklarını tespit etmek ve daha güvenilir AI öğretmen sistemleri geliştirmek açısından önemli.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Sistemlerinde Yeni Tehdit: Gizli Sabotaj Saldırıları
Araştırmacılar, RAG (Retrieval-Augmented Generation) sistemlerine yönelik yeni bir saldırı türü keşfetti. Geleneksel siber saldırılardan farklı olarak bu yöntem, sistemleri tamamen çökertmek yerine kullanıcılara akıcı ama yararsız cevaplar vererek gizlice sabote ediyor. DEJA adlı bu saldırı tekniği, büyük dil modellerinin güvenlik mekanizmalarını istismar ederek fark edilmesi zor hasarlar veriyor. Bu keşif, yapay zeka güvenliği alanında yeni savunma stratejileri geliştirilmesi gerektiğini gösteriyor.
arXiv (CS + AI) · 23 gün önce
0
Güvenli Bilgisayarlarda Karar Ağaçlarını Çalan Yeni Siber Saldırı Keşfedildi
Araştırmacılar, donanım tabanlı güvenlik sistemleriyle korunan yapay zeka modellerini çalmaya yönelik sofistike bir saldırı yöntemi geliştirdi. TrEEStealer adı verilen bu teknik, Güvenilir Yürütme Ortamları (TEE) ile korunan karar ağaçlarını yan kanal saldırıları kullanarak ele geçirebiliyor. Bu keşif, özellikle bulut tabanlı yapay zeka hizmetlerinde kullanılan ticari modellerin güvenliğini ciddi şekilde tehdit ediyor. Karar ağaçları, finans, sağlık ve güvenlik alanlarında yaygın kullanılan makine öğrenmesi modelleri olduğu için bu saldırının etkileri geniş kapsamlı olabilir. Geleneksel kara kutu saldırılarına kıyasla daha az sorgu gerektiren bu yöntem, donanım güvenliğinin mutlak olmadığını gösteriyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay Zeka Modellerinin Güvenlik Açıkları Sparse Autoencoder'larla Kapatılıyor
Büyük dil modelleri, içsel gradient yapılarını istismar eden optimizasyon tabanlı saldırılara karşı savunmasız kalıyor. Araştırmacılar, Sparse Autoencoder (SAE) adı verilen tekniği kullanarak bu güvenlik açıklarını önemli ölçüde azaltmayı başardı. Gemma, LLaMA, Mistral ve Qwen model ailelerinde yapılan testlerde, SAE destekli modeller normal duruma kıyasla 5 kata kadar daha az saldırı başarı oranı gösterdi. Çalışma, yapay zeka güvenliğinde önemli bir adım olarak değerlendiriliyor.
arXiv (CS + AI) · 23 gün önce
0