...
"düşmanca saldırılar" için 106 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
106 haber
Teknoloji & Yapay Zeka
Edera ile Bulut Güvenliğinde Yeni Dönem: Hem Hızlı Hem Güvenli
Bulut bilişimde güvenlik ve performans arasındaki ikilem, araştırmacıların geliştirdiği Edera sistemiyle çözüme kavuşuyor. Mevcut konteyner teknolojileri hızlı olmasına rağmen güvenlik açıkları barındırırken, sanal makine teknolojileri güvenli ancak yavaş çalışıyor. Docker ve Kubernetes gibi popüler araçlar, aynı işletim sistemi çekirdeğini paylaşan konteyner teknolojisini kullanarak performans sağlıyor, ancak bu paylaşım siber saldırılara kapı açıyor. Alternatif olarak önerilen hipervizör sanallaştırması ise güvenli fakat performans kaybına yol açıyor. Edera, bu sorunu 'Goldilocks İzolasyonu' adı verilen yenilikçi yaklaşımıyla çözmeyi hedefliyor - ne fazla ağır ne de fazla hafif, tam kararında bir çözüm sunuyor.
Teknoloji & Yapay Zeka
Siber Güvenlikte Yeni Tehdit: Kademeli Bilgi Sızıntısı Modellenebiliyor
Araştırmacılar, siber saldırganların protokol güvenlik açıklarını nasıl kademeli olarak istismar edebileceğini gösteren yeni bir matematiksel model geliştirdi. Geleneksel güvenlik analizleri, saldırganların bir bilgiyi ya tamamen biliyor ya da hiç bilmediğini varsayıyor. Ancak gerçekte, yan kanal saldırıları gibi tekniklerle saldırganlar gürültülü gözlemlerden yavaş yavaş kritik bilgileri toplayabiliyor. Yeni bulanık mantık tabanlı model, bu kademeli öğrenme sürecini 0 ile 1 arasında değerler kullanarak simüle ediyor. Test sonuçları, geleneksel ikili analizlerde güvenli görünen protokollerin, kademeli sızıntı modellendiğinde aslında güvenlik açıkları barındırabileceğini ortaya koyuyor. Bu keşif, özellikle Needham-Schroeder-Lowe gibi yaygın kullanılan güvenlik protokollerinin yeniden değerlendirilmesi gerektiğini gösteriyor.
Teknoloji & Yapay Zeka
Polinom sinir ağları için yeni güvenlik doğrulama yöntemi geliştirildi
Araştırmacılar, polinom sinir ağlarının güvenilirliğini test etmek için matematiksel geometri tabanlı yeni bir yöntem geliştirdi. Çalışmada, yapay sinir ağlarının saldırılara karşı dayanıklılığını ölçmek için öklid mesafesi derecesi kullanılıyor. Bu yöntem, ağın karar sınırlarına olan mesafeyi hesaplayarak güvenlik yarıçapını belirliyor. Geliştirilen sembolik eliminasyon ve homotopi-devam yöntemleri, sinir ağlarının tam güvenlik sertifikasyonunu mümkün kılıyor. Lightning self-attention modülleri üzerinde yapılan deneyler, karar sınırlarının beklenenden daha düşük karmaşıklığa sahip olduğunu gösteriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Ajanlarını Silahlaştıran Zararlı Beceriler Keşfedildi
Araştırmacılar, büyük dil modellerinin kullandığı açık beceri ekosistemlerinde ciddi güvenlik açıkları tespit etti. İki büyük platformda yapılan kapsamlı analiz, 98.440 becerinin %4,93'ünün siber saldırılar, dolandırıcılık ve mahremiyet ihlalleri gibi zararlı amaçlarla kötüye kullanılabileceğini ortaya çıkardı. ClawHub platformunda zararlı beceri oranı %8,84'e ulaşırken, Skills.Rest'te bu oran %3,49 olarak belirlendi. Çalışma, otonom AI ajanlarının güvenlik değerlendirmesi için ilk kapsamlı kıyaslama sistemi olan HarmfulSkillBench'i de tanıttı.
Teknoloji & Yapay Zeka
Kuantum makine öğrenmesinde simetri koruması güvenlik açığı yaratabilir
Araştırmacılar, simetri özelliklerini koruyan kuantum makine öğrenme modellerinin adversarial saldırılara karşı nasıl davrandığını inceledi. Rotasyonel eşdeğişkenlik özelliği olan kuantum modellerde yapılan çalışmada, simetrinin tek başına güvenlik garantisi sağlamadığı ortaya çıktı. Modellerin sadece simetri-değişmez bilgilere erişebilmesi, aynı zamanda onları belirli saldırı türlerine karşı savunmasız bırakıyor. Bu bulgular, kuantum makine öğrenme sistemlerinin güvenlik açıklarını anlamak ve daha dayanıklı modeller geliştirmek açısından önem taşıyor.
Teknoloji & Yapay Zeka
AI Modellerinin 'Unutma' Becerisini Geliştiren Yeni Yöntem Geliştirildi
Araştırmacılar, büyük dil modellerinin (LLM) zararlı veya gizlilik açısından hassas bilgileri güvenli şekilde unutabilmesi için yeni bir çerçeve geliştirdi. Mevcut yöntemler genellikle tek hedefe odaklanırken, yeni yaklaşım hem istenmeyen bilgileri silme, hem genel yetenekleri koruma, hem de siber saldırılara karşı dayanıklılık sağlama gibi birden fazla kritik hedefi aynı anda başarıyor. Bu gelişme, AI güvenliği ve gizlilik koruma alanında önemli bir adım olarak değerlendiriliyor.
Teknoloji & Yapay Zeka
TRIDENT: AI güvenliği için üç boyutlu 'kırmızı takım' saldırı simülasyonu
Büyük dil modelleri günlük hayatımızda giderek daha fazla yer alırken, güvenlik açıkları da kritik bir sorun haline geliyor. Araştırmacılar, AI sistemlerinin zararlı içerik üretme risklerini azaltmak için TRIDENT adlı yeni bir yaklaşım geliştirdi. Bu sistem, üç temel boyutta - kelime çeşitliliği, kötü niyetli amaçlar ve güvenlik duvarı aşma taktikleri - AI modellerine karşı simülasyon saldırılar düzenleyerek zayıflıkları tespit ediyor. Mevcut güvenlik veri setlerinin çoğunlukla yalnızca sözcük çeşitliliğine odaklandığını belirten araştırma, daha kapsamlı risk analizi ihtiyacını vurguluyor. TRIDENT, persona tabanlı otomatik üretim teknikleriyle çeşitli zararlı talimatlar oluşturup bunlara etik açıdan uygun yanıtlar eşleştiriyor. Bu yaklaşım, AI güvenlik sistemlerinin daha dayanıklı hale gelmesine katkı sağlayabilir.
Teknoloji & Yapay Zeka
Araçlarda Gizli Siber Saldırılar: Yan Dinamikler Nasıl Ele Geçiriliyor?
Araştırmacılar, modern araçların yan hareket kontrolüne yönelik üç farklı gizli siber saldırı türünü analiz etti. Çalışma, tekrar saldırıları, sıfır dinamik saldırıları ve gizli saldırıların araç güvenliğine etkilerini sistem teorisi yaklaşımıyla inceledi. Araştırma, farklı sensör konfigürasyonlarının saldırı tespit edilebilirliğini nasıl etkilediğini ortaya koyuyor. Bulgular, tekrar saldırılarının model bilgisi gerektirmediğini, sıfır dinamik saldırılarının kontrol tasarımı seçimlerine bağlı olduğunu ve gizli saldırıların en karmaşık koordinasyon gerektirdiğini gösteriyor. Bu araştırma, otonom araçların siber güvenlik açıklarını anlamak için kritik önem taşıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Güvenliği için Yeni Yaklaşım: Rastgele Tokenleştirme
Büyük dil modellerinin güvenlik açıklarına karşı dayanıklılığını artırmak için yeni bir yöntem geliştirildi. Araştırmacılar, metnin makine diline çevrilme sürecinde rastgelelik kullanmanın, modelleri siber saldırılara karşı daha dirençli hale getirdiğini keşfetti. Geleneksel yöntemlerle eğitilen modeller, metindeki küçük değişikliklere karşı kırılgan olabiliyorken, stokastik tokenleştirme adı verilen bu teknik modellerin iç temsillerini daha güçlü kılıyor. Çalışma, ön eğitim, denetimli ince ayar ve bağlam içi öğrenme gibi farklı öğrenme rejimlerinde bu yaklaşımın etkisini sistematik olarak inceledi. Sonuçlar, rastgele örneklenen tokenleştirme yönteminin hem rastgele hem de kasıtlı bozulmalara karşı dayanıklılığı önemli ölçüde artırdığını gösteriyor.
Teknoloji & Yapay Zeka
Kuantum Bilgisayarlar Sağlık IoT Sistemlerini Tehdit Ediyor
Akıllı sağlık hizmetlerinde yaygın olarak kullanılan IoT cihazları, gelişmekte olan kuantum bilgisayarların karşısında savunmasız kalabilir. Araştırmacılar, hastane ekipmanlarından wearable cihazlara kadar tüm sağlık IoT sistemlerinin kuantum saldırılarına karşı nasıl korunacağını inceledi. Çalışma, mevcut şifreleme sistemlerinin kuantum bilgisayarlar tarafından kırılabileceğini ve bu durumun hasta verilerini tehlikeye atabileceğini gösteriyor. Bilim insanları, sağlık IoT sistemlerini kuantum güvenli şifreleme teknolojilerine geçiş için kapsamlı bir çerçeve önerdi. Bu framework, kaynak kısıtlı cihazları önceliklendiren ve aşamalı bir geçiş planı sunan yaklaşım benimsiyor.
Teknoloji & Yapay Zeka
Apple Intelligence'ta Kritik Güvenlik Açığı: Serpent Saldırısı Token Hırsızlığına Yol Açıyor
Güvenlik araştırmacıları, Apple Intelligence'ın güvenlik sisteminde ciddi bir açık keşfetti. 'Serpent' adı verilen bu saldırı yöntemi, kullanıcıların cihazlarından erişim tokenlarını çalarak bunları farklı cihazlarda kullanmayı mümkün kılıyor. Apple'ın yapay zeka hizmeti, anonim erişim tokenleri kullanarak iki aşamalı güvenlik sistemiyle kullanıcı gizliliğini korumayı hedefliyordu. Ancak araştırma, bu koruma mekanizmasının traffic analizi, tersine mühendislik ve Apple'ın resmi belgelerinin karşılaştırılması yoluyla aşılabileceğini gösteriyor. En güncel macOS 26 Tahoe sürümünde bile başarılı saldırılar gerçekleştirilen bu keşif, yapay zeka hizmetlerinin güvenlik mimarilerinde köklü revizyonlara ihtiyaç olduğunu ortaya koyuyor. Çalıntı tokenlar, mağdurun kullanım limitlerini tüketerek ek zararlara yol açabiliyor.