...
"düşmanca saldırılar" için 106 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
106 haber
Teknoloji & Yapay Zeka
Kuantum Sonrası Şifreleme Donanımlarında Güvenlik Açığı Tespit Edildi
Araştırmacılar, kuantum bilgisayarlara karşı geliştirilmiş olan ML-DSA ve ML-KEM şifreleme algoritmalarını çalıştıran Adams Bridge donanım hızlandırıcısında önemli güvenlik zafiyetleri keşfetti. Bu donanım, güç analizi saldırılarına karşı korunma için maskeleme ve karıştırma tekniklerini kullanıyor ancak analiz, sistemin iddia edilen güvenlik seviyesinin gerçekte çok daha düşük olduğunu ortaya koydu. Özellikle Random Start Index karıştırma yönteminin, tam rastgele permütasyon yerine katı sınırlı entropi sağladığı belirlendi. Bu bulgu, kuantum sonrası kriptografi donanımlarının yan kanal saldırılarına karşı daha güçlü koruma mekanizmalarına ihtiyacı olduğunu gösteriyor.
Teknoloji & Yapay Zeka
Düşük Bütçeli Kuruluşlar İçin Yapay Zeka Destekli Siber Güvenlik Sistemi
Araştırmacılar, hastane ve okul gibi sınırlı bütçeli kuruluşları siber saldırılara karşı korumak için açık kaynak kodlu bir ağ güvenlik sistemi geliştirdi. ML Defender adı verilen bu sistem, yaklaşık 150-200 dolarlık donanımla çalışabiliyor ve makine öğrenmesi algoritmalarını kullanarak botnet ve DDoS saldırılarını tespit ediyor. Sistem, kural tabanlı hızlı tespit mekanizması ile rastgele orman sınıflandırıcısını birleştirerek yanlış alarm oranını 500 kat azaltmayı başarıyor. CTU-13 veri seti üzerindeki testlerde %99.85 F1 skoru ve %100 hassasiyet oranı elde eden sistem, siber güvenlikte kaynak kısıtlı organizasyonlar için umut verici bir çözüm sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliğinde Yeni Çözüm: AttnTrace ile Hızlı Tehdit Analizi
Araştırmacılar, büyük dil modellerindeki güvenlik açıklarını tespit etmek için AttnTrace adlı yeni bir sistem geliştirdi. Gemini ve Claude gibi gelişmiş yapay zeka sistemlerinde prompt injection saldırıları ve bilgi manipülasyonunu izleyebilen bu teknoloji, mevcut çözümlerden 100 kat daha hızlı çalışıyor. Özellikle RAG sistemleri ve otonom ajanlar gibi karmaşık AI uygulamalarında güvenliği artırmayı hedefleyen sistem, saldırı sonrası analiz ve güvenilirlik değerlendirmesi açısından önemli bir gelişme sunuyor. Yapay zeka güvenliğinin kritik hale geldiği bu dönemde, AttnTrace'in sunduğu hız ve doğruluk avantajı, AI sistemlerinin daha güvenli kullanımına katkı sağlayabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Sistemlerinde Yeni Güvenlik Açığı: Bellek Hatalarıyla Sessiz Manipülasyon
Araştırmacılar, büyük dil modellerinin (LLM) hizmet verdiği sistemlerde kritik bir güvenlik açığı keşfetti. vLLM gibi popüler sistemlerde kullanılan paylaşımlı önbellek bloklarının, bit düzeyindeki hatalarla manipüle edilebileceği ortaya çıktı. Bu saldırı yöntemi, GPU belleğindeki Rowhammer saldırılarına benzer şekilde çalışıyor ancak daha sinsi bir yapıya sahip. Saldırının üç temel özelliği tespit edildi: manipüle edilmiş çıktıların normal yanıtlardan ayırt edilememesi, sadece hedeflenen prefix'i paylaşan isteklerin etkilenmesi ve zaman içinde hasarın birikmesi. Bu durum, yapay zeka sistemlerinin güvenilirliği açısından yeni bir tehdit oluşturuyor çünkü saldırı tespit edilmesi zor ve kalıcı etkiler yaratıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Kontrolünde Yeni Yaklaşım: Düşman Ortamda Daha İyi Performans
Araştırmacılar, çevrimiçi stokastik olmayan kontrol problemleri için yeni bir algoritma geliştirdi. Bu yöntem, düşmanca bozuculuklar ve maliyet fonksiyonları altında çalışan doğrusal sistemlerin kontrolünde kullanılıyor. Geleneksel yaklaşımlardan farklı olarak, sabit girdi ile ulaşılabilen denge durumları yerine, afin kontrolör altında erişilebilen daha geniş bir denge durumu kümesini referans alıyor. Bu genişletilmiş karşılaştırma sınıfı, algoritmanın performans garantilerini önemli ölçüde güçlendiriyor ve O(√T) pişmanlık oranı elde ediyor. Yöntem, Follow-The-Perturbed-Leader tarzı çevrimiçi dışbükey olmayan optimizasyon yaklaşımını, değişen politikalara rağmen kararlılığı koruyan bir gruplama yöntemiyle birleştiriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerini Siber Saldırılara Karşı Koruyan Yenilikçi Savunma Sistemi
Büyük dil modelleri (LLM'ler), geniş veri setlerine dayandıkları için backdoor saldırılarına karşı savunmasız durumda. Bu tür saldırılarda, saldırganlar eğitim verilerinin küçük bir kısmını zehirleyerek modele gizli davranışlar yerleştiriyor. Araştırmacılar, bu tehdide karşı MB-Defense adlı yenilikçi bir savunma sistemi geliştirdi. İki aşamalı bu sistem, önce saldırgan ve savunma tetikleyicilerini birleştirerek ortak bir backdoor temsili oluşturuyor, sonra da ek eğitimle bu temsili bozarak modelin temiz davranışını geri kazandırıyor. Çalışma, büyük dil modellerinin güvenliğini artıran önemli bir gelişme sunuyor.
Teknoloji & Yapay Zeka
Güvenli Bilişim Sistemlerinde Kritik Açıklar Keşfedildi
Araştırmacılar, gizli bilgi işlem sistemlerinin temelini oluşturan TEE konteynerlerinde ciddi güvenlik açıkları tespit etti. Bu sistemler, hassas verileri kötü niyetli yazılımlardan korumak için tasarlanmışken, yapılan kapsamlı analizde 12 yeni hata, 6 saldırı vektörü ve 3 CVE güvenlik açığı ortaya çıkarıldı. Bulut bilişim altyapısında yaygın kullanılan bu teknolojilerdeki açıklar, kod çalıştırma, hizmet durdurma ve bilgi sızıntısı gibi saldırılara zemin hazırlıyor. Çalışma, güvenilir yürütme ortamlarının mevcut durumunu sorgulatırken, gelecekteki güvenlik standartları için önemli ipuçları sunuyor.
Teknoloji & Yapay Zeka
Akıllı Yüzeylerle Kablosuz Sinyal Karıştırma Saldırılarına Karşı Yeni Savunma
Kablosuz iletişim sistemleri, gelişen jamming teknolojileri nedeniyle artan saldırı tehdidiyle karşı karşıya. Araştırmacılar, aktif yeniden yapılandırılabilir akıllı yüzeyler (RIS) kullanarak bu saldırılara karşı etkili bir savunma yöntemi geliştirdi. Geleneksel anti-jamming tekniklerinin sınırlı performans sunduğu durumda, yeni yaklaşım elektromanyetik uyumlu aktif RIS modeli öneriyor. Bu sistem, karşılıklı bağlaşım etkileri ve empedans uyumsuzluklarını dikkate alarak daha gerçekçi bir çözüm sunuyor. Çalışma, düşük karmaşıklıkta alternatif optimizasyon algoritması ile sistemin anti-jamming performansını değerlendiriyor ve kablosuz iletişimde güvenlik açısından önemli bir adım atıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Araç Zincirlerinde Gizli Saldırılar: MCP Ekosistemindeki Yeni Tehdit
Araştırmacılar, büyük dil modellerinin (LLM) dış sistemlerle entegrasyonunda kullanılan Model Context Protocol (MCP) ekosisteminde yeni bir güvenlik tehdidi keşfetti. 'Parazitik Araç Zinciri Saldırıları' olarak adlandırılan bu tehdit, yapay zekanın pasif bilgi işleyiciden aktif görev orchestratörüne dönüşümüyle ortaya çıkıyor. Saldırganlar, kurbanın doğrudan etkileşimine gerek duymadan, LLM'lerin meşru görevler sırasında eriştiği dış veri kaynaklarına kötü amaçlı talimatlar gömebiliyor. Bu durum, geleneksel prompt enjeksiyonu ve araç zehirleme saldırılarından farklı olarak, tek çıktıları manipüle etmek yerine tüm yürütme akışını ele geçirmeyi hedefliyor. MCP Unintended Privacy Disclosure (MCP-UPD) olarak örneklendirilen bu sistematik gizlilik sızıntısı saldırı modeli, LLM destekli uygulamaların yaygınlaşmasıyla birlikte saldırı yüzeyinin genişlediğini gösteriyor.
Teknoloji & Yapay Zeka
Açık kaynak yapay zeka modelleri oltalama saldırılarına karşı savunmasız
Araştırmacılar, açık kaynak büyük dil modellerinin (LLM) oltalama saldırılarına karşı ciddi güvenlik açıkları taşıdığını ortaya koydu. GuardPhish adlı kapsamlı çalışmada, 70 binden fazla gerçek oltalama örneği kullanılarak 8 farklı model test edildi. Sonuçlar, modellerin oltalama girişimlerini %96 oranında tespit edebildiği halde, aynı içerikleri üretme konusunda başarısız olduğunu gösterdi. Bu durum, özellikle çevrimdışı ortamlarda kullanılan AI sistemlerinin güvenlik zafiyetlerini gözler önüne seriyor. Çalışma, web, e-posta, SMS ve sesli saldırı senaryolarını kapsayan geniş bir veri seti kullanarak gerçek dünya tehditlerine odaklanıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliğinde Yeni Çözümler: 7 Farklı Disiplinden İlham
Araştırmacılar, yapay zeka sistemlerine yönelik prompt injection saldırılarını tespit etmek için geleneksel yöntemlerin ötesinde 7 yenilikçi teknik geliştirdi. Mevcut açık kaynak savunma sistemleri, düzenli ifade eşleştirme ve fine-tuned transformer sınıflandırıcıları kullanıyor ancak bu yöntemler ciddi güvenlik açıklarına sahip. Düzenli ifadeler parafrazlanmış saldırıları kaçırırken, fine-tuned sınıflandırıcılar uyarlanabilir düşmanlara karşı savunmasız kalıyor. Yeni araştırma, adli dilbilim, malzeme bilimi, ağ güvenliği, biyoinformatik, ekonomi, epidemiyoloji ve derleyici teorisi gibi farklı disiplinlerden teknikleri uyarlayarak bu sorunlara çözüm önerisi sunuyor. Bu interdisipliner yaklaşım, AI güvenliğinde daha dayanıklı savunma mekanizmaları geliştirilmesi açısından önemli bir adım.