...
"bizans saldırıları" için 66 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
66 haber
Teknoloji & Yapay Zeka
Yapay Zeka Sistemlerinde Yeni Tehdit: Gizli Sabotaj Saldırıları
Araştırmacılar, RAG (Retrieval-Augmented Generation) sistemlerine yönelik yeni bir saldırı türü keşfetti. Geleneksel siber saldırılardan farklı olarak bu yöntem, sistemleri tamamen çökertmek yerine kullanıcılara akıcı ama yararsız cevaplar vererek gizlice sabote ediyor. DEJA adlı bu saldırı tekniği, büyük dil modellerinin güvenlik mekanizmalarını istismar ederek fark edilmesi zor hasarlar veriyor. Bu keşif, yapay zeka güvenliği alanında yeni savunma stratejileri geliştirilmesi gerektiğini gösteriyor.
Teknoloji & Yapay Zeka
Güvenli Bilgisayarlarda Karar Ağaçlarını Çalan Yeni Siber Saldırı Keşfedildi
Araştırmacılar, donanım tabanlı güvenlik sistemleriyle korunan yapay zeka modellerini çalmaya yönelik sofistike bir saldırı yöntemi geliştirdi. TrEEStealer adı verilen bu teknik, Güvenilir Yürütme Ortamları (TEE) ile korunan karar ağaçlarını yan kanal saldırıları kullanarak ele geçirebiliyor. Bu keşif, özellikle bulut tabanlı yapay zeka hizmetlerinde kullanılan ticari modellerin güvenliğini ciddi şekilde tehdit ediyor. Karar ağaçları, finans, sağlık ve güvenlik alanlarında yaygın kullanılan makine öğrenmesi modelleri olduğu için bu saldırının etkileri geniş kapsamlı olabilir. Geleneksel kara kutu saldırılarına kıyasla daha az sorgu gerektiren bu yöntem, donanım güvenliğinin mutlak olmadığını gösteriyor.
Teknoloji & Yapay Zeka
Kuantum Sonrası Şifreleme Donanımlarında Güvenlik Açığı Tespit Edildi
Araştırmacılar, kuantum bilgisayarlara karşı geliştirilmiş olan ML-DSA ve ML-KEM şifreleme algoritmalarını çalıştıran Adams Bridge donanım hızlandırıcısında önemli güvenlik zafiyetleri keşfetti. Bu donanım, güç analizi saldırılarına karşı korunma için maskeleme ve karıştırma tekniklerini kullanıyor ancak analiz, sistemin iddia edilen güvenlik seviyesinin gerçekte çok daha düşük olduğunu ortaya koydu. Özellikle Random Start Index karıştırma yönteminin, tam rastgele permütasyon yerine katı sınırlı entropi sağladığı belirlendi. Bu bulgu, kuantum sonrası kriptografi donanımlarının yan kanal saldırılarına karşı daha güçlü koruma mekanizmalarına ihtiyacı olduğunu gösteriyor.
Teknoloji & Yapay Zeka
Düşük Bütçeli Kuruluşlar İçin Yapay Zeka Destekli Siber Güvenlik Sistemi
Araştırmacılar, hastane ve okul gibi sınırlı bütçeli kuruluşları siber saldırılara karşı korumak için açık kaynak kodlu bir ağ güvenlik sistemi geliştirdi. ML Defender adı verilen bu sistem, yaklaşık 150-200 dolarlık donanımla çalışabiliyor ve makine öğrenmesi algoritmalarını kullanarak botnet ve DDoS saldırılarını tespit ediyor. Sistem, kural tabanlı hızlı tespit mekanizması ile rastgele orman sınıflandırıcısını birleştirerek yanlış alarm oranını 500 kat azaltmayı başarıyor. CTU-13 veri seti üzerindeki testlerde %99.85 F1 skoru ve %100 hassasiyet oranı elde eden sistem, siber güvenlikte kaynak kısıtlı organizasyonlar için umut verici bir çözüm sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliğinde Yeni Çözüm: AttnTrace ile Hızlı Tehdit Analizi
Araştırmacılar, büyük dil modellerindeki güvenlik açıklarını tespit etmek için AttnTrace adlı yeni bir sistem geliştirdi. Gemini ve Claude gibi gelişmiş yapay zeka sistemlerinde prompt injection saldırıları ve bilgi manipülasyonunu izleyebilen bu teknoloji, mevcut çözümlerden 100 kat daha hızlı çalışıyor. Özellikle RAG sistemleri ve otonom ajanlar gibi karmaşık AI uygulamalarında güvenliği artırmayı hedefleyen sistem, saldırı sonrası analiz ve güvenilirlik değerlendirmesi açısından önemli bir gelişme sunuyor. Yapay zeka güvenliğinin kritik hale geldiği bu dönemde, AttnTrace'in sunduğu hız ve doğruluk avantajı, AI sistemlerinin daha güvenli kullanımına katkı sağlayabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Sistemlerinde Yeni Güvenlik Açığı: Bellek Hatalarıyla Sessiz Manipülasyon
Araştırmacılar, büyük dil modellerinin (LLM) hizmet verdiği sistemlerde kritik bir güvenlik açığı keşfetti. vLLM gibi popüler sistemlerde kullanılan paylaşımlı önbellek bloklarının, bit düzeyindeki hatalarla manipüle edilebileceği ortaya çıktı. Bu saldırı yöntemi, GPU belleğindeki Rowhammer saldırılarına benzer şekilde çalışıyor ancak daha sinsi bir yapıya sahip. Saldırının üç temel özelliği tespit edildi: manipüle edilmiş çıktıların normal yanıtlardan ayırt edilememesi, sadece hedeflenen prefix'i paylaşan isteklerin etkilenmesi ve zaman içinde hasarın birikmesi. Bu durum, yapay zeka sistemlerinin güvenilirliği açısından yeni bir tehdit oluşturuyor çünkü saldırı tespit edilmesi zor ve kalıcı etkiler yaratıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerini Siber Saldırılara Karşı Koruyan Yenilikçi Savunma Sistemi
Büyük dil modelleri (LLM'ler), geniş veri setlerine dayandıkları için backdoor saldırılarına karşı savunmasız durumda. Bu tür saldırılarda, saldırganlar eğitim verilerinin küçük bir kısmını zehirleyerek modele gizli davranışlar yerleştiriyor. Araştırmacılar, bu tehdide karşı MB-Defense adlı yenilikçi bir savunma sistemi geliştirdi. İki aşamalı bu sistem, önce saldırgan ve savunma tetikleyicilerini birleştirerek ortak bir backdoor temsili oluşturuyor, sonra da ek eğitimle bu temsili bozarak modelin temiz davranışını geri kazandırıyor. Çalışma, büyük dil modellerinin güvenliğini artıran önemli bir gelişme sunuyor.
Teknoloji & Yapay Zeka
Akıllı Yüzeylerle Kablosuz Sinyal Karıştırma Saldırılarına Karşı Yeni Savunma
Kablosuz iletişim sistemleri, gelişen jamming teknolojileri nedeniyle artan saldırı tehdidiyle karşı karşıya. Araştırmacılar, aktif yeniden yapılandırılabilir akıllı yüzeyler (RIS) kullanarak bu saldırılara karşı etkili bir savunma yöntemi geliştirdi. Geleneksel anti-jamming tekniklerinin sınırlı performans sunduğu durumda, yeni yaklaşım elektromanyetik uyumlu aktif RIS modeli öneriyor. Bu sistem, karşılıklı bağlaşım etkileri ve empedans uyumsuzluklarını dikkate alarak daha gerçekçi bir çözüm sunuyor. Çalışma, düşük karmaşıklıkta alternatif optimizasyon algoritması ile sistemin anti-jamming performansını değerlendiriyor ve kablosuz iletişimde güvenlik açısından önemli bir adım atıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Araç Zincirlerinde Gizli Saldırılar: MCP Ekosistemindeki Yeni Tehdit
Araştırmacılar, büyük dil modellerinin (LLM) dış sistemlerle entegrasyonunda kullanılan Model Context Protocol (MCP) ekosisteminde yeni bir güvenlik tehdidi keşfetti. 'Parazitik Araç Zinciri Saldırıları' olarak adlandırılan bu tehdit, yapay zekanın pasif bilgi işleyiciden aktif görev orchestratörüne dönüşümüyle ortaya çıkıyor. Saldırganlar, kurbanın doğrudan etkileşimine gerek duymadan, LLM'lerin meşru görevler sırasında eriştiği dış veri kaynaklarına kötü amaçlı talimatlar gömebiliyor. Bu durum, geleneksel prompt enjeksiyonu ve araç zehirleme saldırılarından farklı olarak, tek çıktıları manipüle etmek yerine tüm yürütme akışını ele geçirmeyi hedefliyor. MCP Unintended Privacy Disclosure (MCP-UPD) olarak örneklendirilen bu sistematik gizlilik sızıntısı saldırı modeli, LLM destekli uygulamaların yaygınlaşmasıyla birlikte saldırı yüzeyinin genişlediğini gösteriyor.
Teknoloji & Yapay Zeka
Açık kaynak yapay zeka modelleri oltalama saldırılarına karşı savunmasız
Araştırmacılar, açık kaynak büyük dil modellerinin (LLM) oltalama saldırılarına karşı ciddi güvenlik açıkları taşıdığını ortaya koydu. GuardPhish adlı kapsamlı çalışmada, 70 binden fazla gerçek oltalama örneği kullanılarak 8 farklı model test edildi. Sonuçlar, modellerin oltalama girişimlerini %96 oranında tespit edebildiği halde, aynı içerikleri üretme konusunda başarısız olduğunu gösterdi. Bu durum, özellikle çevrimdışı ortamlarda kullanılan AI sistemlerinin güvenlik zafiyetlerini gözler önüne seriyor. Çalışma, web, e-posta, SMS ve sesli saldırı senaryolarını kapsayan geniş bir veri seti kullanarak gerçek dünya tehditlerine odaklanıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliğinde Yeni Çözümler: 7 Farklı Disiplinden İlham
Araştırmacılar, yapay zeka sistemlerine yönelik prompt injection saldırılarını tespit etmek için geleneksel yöntemlerin ötesinde 7 yenilikçi teknik geliştirdi. Mevcut açık kaynak savunma sistemleri, düzenli ifade eşleştirme ve fine-tuned transformer sınıflandırıcıları kullanıyor ancak bu yöntemler ciddi güvenlik açıklarına sahip. Düzenli ifadeler parafrazlanmış saldırıları kaçırırken, fine-tuned sınıflandırıcılar uyarlanabilir düşmanlara karşı savunmasız kalıyor. Yeni araştırma, adli dilbilim, malzeme bilimi, ağ güvenliği, biyoinformatik, ekonomi, epidemiyoloji ve derleyici teorisi gibi farklı disiplinlerden teknikleri uyarlayarak bu sorunlara çözüm önerisi sunuyor. Bu interdisipliner yaklaşım, AI güvenliğinde daha dayanıklı savunma mekanizmaları geliştirilmesi açısından önemli bir adım.