...
"bizans saldırıları" için 66 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
66 haber
Teknoloji & Yapay Zeka
LLM Hata Ayıklama Sistemlerinde Kritik Güvenlik Açığı Keşfedildi
Araştırmacılar, bulut hizmetlerinin günlük dosyalarını analiz eden yapay zeka sistemlerinde ciddi bir güvenlik açığı tespit etti. LogJack adlı bu saldırı yöntemi, zararlı komutları günlük kayıtlarının içine gizleyerek AI sistemlerini kandırıyor. 8 farklı büyük dil modeli üzerinde yapılan testlerde, bazı modellerin %86'ya varan oranlarda zararlı komutları aynen çalıştırdığı görüldü. En güvenli model Claude Sonnet olurken, Llama 3.3 en savunmasız model olarak öne çıktı. AWS, Google Cloud ve Azure'un güvenlik sistemleri bu saldırıları tespit etmede büyük ölçüde başarısız oldu. Bu keşif, AI sistemlerinin bulut altyapılarında kullanımının yaygınlaştığı dönemde kritik önem taşıyor.
Teknoloji & Yapay Zeka
Siber Güvenlikte Yeni Tehdit: Kademeli Bilgi Sızıntısı Modellenebiliyor
Araştırmacılar, siber saldırganların protokol güvenlik açıklarını nasıl kademeli olarak istismar edebileceğini gösteren yeni bir matematiksel model geliştirdi. Geleneksel güvenlik analizleri, saldırganların bir bilgiyi ya tamamen biliyor ya da hiç bilmediğini varsayıyor. Ancak gerçekte, yan kanal saldırıları gibi tekniklerle saldırganlar gürültülü gözlemlerden yavaş yavaş kritik bilgileri toplayabiliyor. Yeni bulanık mantık tabanlı model, bu kademeli öğrenme sürecini 0 ile 1 arasında değerler kullanarak simüle ediyor. Test sonuçları, geleneksel ikili analizlerde güvenli görünen protokollerin, kademeli sızıntı modellendiğinde aslında güvenlik açıkları barındırabileceğini ortaya koyuyor. Bu keşif, özellikle Needham-Schroeder-Lowe gibi yaygın kullanılan güvenlik protokollerinin yeniden değerlendirilmesi gerektiğini gösteriyor.
Teknoloji & Yapay Zeka
Araçlarda Gizli Siber Saldırılar: Yan Dinamikler Nasıl Ele Geçiriliyor?
Araştırmacılar, modern araçların yan hareket kontrolüne yönelik üç farklı gizli siber saldırı türünü analiz etti. Çalışma, tekrar saldırıları, sıfır dinamik saldırıları ve gizli saldırıların araç güvenliğine etkilerini sistem teorisi yaklaşımıyla inceledi. Araştırma, farklı sensör konfigürasyonlarının saldırı tespit edilebilirliğini nasıl etkilediğini ortaya koyuyor. Bulgular, tekrar saldırılarının model bilgisi gerektirmediğini, sıfır dinamik saldırılarının kontrol tasarımı seçimlerine bağlı olduğunu ve gizli saldırıların en karmaşık koordinasyon gerektirdiğini gösteriyor. Bu araştırma, otonom araçların siber güvenlik açıklarını anlamak için kritik önem taşıyor.
Teknoloji & Yapay Zeka
Kuantum Bilgisayarlar Sağlık IoT Sistemlerini Tehdit Ediyor
Akıllı sağlık hizmetlerinde yaygın olarak kullanılan IoT cihazları, gelişmekte olan kuantum bilgisayarların karşısında savunmasız kalabilir. Araştırmacılar, hastane ekipmanlarından wearable cihazlara kadar tüm sağlık IoT sistemlerinin kuantum saldırılarına karşı nasıl korunacağını inceledi. Çalışma, mevcut şifreleme sistemlerinin kuantum bilgisayarlar tarafından kırılabileceğini ve bu durumun hasta verilerini tehlikeye atabileceğini gösteriyor. Bilim insanları, sağlık IoT sistemlerini kuantum güvenli şifreleme teknolojilerine geçiş için kapsamlı bir çerçeve önerdi. Bu framework, kaynak kısıtlı cihazları önceliklendiren ve aşamalı bir geçiş planı sunan yaklaşım benimsiyor.
Teknoloji & Yapay Zeka
Güvenilir Ortam Teknolojisi ile Blockchain Konsensüsünde Yeni Dönem
Araştırmacılar, konsorsiyum blockchain ağları için T-RBFT adlı yeni bir konsensüs mekanizması geliştirdi. Bu sistem, güvenilir çalıştırma ortamı (TEE) teknolojisini kullanarak geleneksel Bizans Hata Toleranslı protokollerin performans sorunlarını çözmeyi hedefliyor. Konsorsiyum blockchain'lerinde çoğu düğümün dürüst olduğu ortamlarda, mevcut BFT protokolleri gereksiz mesaj alışverişi ve hesaplama yükü oluşturuyor. T-RBFT, iki katmanlı konsensüs yapısı ve dinamik gruplama ile bu sorunu aşarak daha yüksek performans ve ölçeklenebilirlik sunuyor. Bu gelişme, özellikle kurumsal blockchain uygulamaları için önemli verimlilik artışları vadediyor.
Teknoloji & Yapay Zeka
Merkeziyetsiz Öğrenmede Kötü Niyetli Makineleri Tespit Eden Yeni Yöntem
Araştırmacılar, merkeziyetsiz öğrenme sistemlerinde Bizans saldırılarına karşı yeni bir savunma stratejisi geliştirdi. Geleneksel yöntemler saldırgan makinelerin etkisini azaltmaya odaklanırken, bu yeni yaklaşım kötü niyetli düğümleri aktif olarak tespit edip ağdan çıkarıyor. DRSGD-ByMI adlı framework, 'önce tespit et, sonra optimize et' mantığıyla çalışıyor ve p-değeri gerektirmeyen bir tespit prosedürü kullanıyor. Bu yöntem, yanlış keşif oranını kontrol altında tutarken, kısıtlayıcı dağılım varsayımları gerektirmiyor. Sistem, örnek-bölme skor istatistikleri kullanarak kötü niyetli düğümleri hassas bir şekilde belirliyor ve böylece tam yakınsama sağlıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliğinde Yeni Tehdit: Akıl Yürütme Korsanlığı Keşfedildi
Araştırmacılar, büyük dil modellerinde (LLM) şimdiye kadar göz ardı edilen kritik bir güvenlik açığını ortaya çıkardı. 'Akıl Yürütme Korsanlığı' adı verilen bu yeni saldırı türü, yapay zekanın ana görevini değiştirmeden karar verme mantığını manipüle ediyor. Geleneksel güvenlik önlemlerinin hedef değiştirme saldırılarına odaklandığını belirten bilim insanları, bu yeni yaklaşımın modellerin karar alma kriterlerini gizlice değiştirerek yanlış sonuçlara ulaşmasına neden olabileceğini gösterdi. Bulgular, mevcut yapay zeka güvenlik stratejilerinin yetersiz olduğunu ve daha kapsamlı koruma mekanizmalarına ihtiyaç duyulduğunu ortaya koyuyor.
Teknoloji & Yapay Zeka
3D Nokta Bulutları İçin Yeni Siber Saldırı Savunma Yöntemi Geliştirildi
Araştırmacılar, 3D nokta bulutu tanıma sistemlerini siber saldırılara karşı koruyan yenilikçi bir savunma yöntemi geliştirdi. Adversarial Point Counterattack (APC) adlı sistem, her nokta için özel karşı-pertürbasyonlar üreterek saldırıları etkisiz hale getiriyor. Geleneksel savunma yöntemlerinin aksine, APC hem güçlü koruma sağlıyor hem de farklı modellere kolayca aktarılabiliyor. Sistem, temiz ve saldırı altındaki veri çiftlerini kullanarak geometrik ve semantik tutarlılığı korurken, çoklu saldırı türlerine karşı dayanıklılık kazanıyor. Hafif yapısı ve girdi seviyesinde çalışması sayesinde, yeniden eğitime gerek kalmadan farklı modellerde kullanılabiliyor. Bu gelişme, 3D görü sistemlerinin güvenliğinde önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenlik Açıklarında Yeni Keşif: Polinom-Üstel Geçiş
Araştırmacılar, güvenlik önlemleriyle korunan büyük dil modellerinin nasıl manipüle edilebileceğine dair önemli bir keşif yaptı. Çalışma, kötü niyetli saldırıların başarı oranının belirli koşullarda yavaş polinom büyümeden hızlı üstel büyümeye geçebildiğini ortaya koyuyor. Bu geçiş, özellikle zararlı komutların ana sorulara enjekte edilmesiyle tetikleniyor. Araştırma ekibi, bu fenomeni açıklamak için spin-cam sistemlerine dayanan teorik bir model geliştirdi. Bu bulgular, AI güvenlik sistemlerinin nasıl aşılabileceğini anlamamız ve daha sağlam güvenlik önlemleri geliştirmemiz açısından kritik öneme sahip. Özellikle ChatGPT gibi modellerin güvenlik açıkları konusunda yeni perspektifler sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerindeki Zararlı Davranışları Kökten Silmek Artık Mümkün
Araştırmacılar, yapay zeka modellerindeki zararlı ve güvenli olmayan davranışları doğrudan kaynaklarından silmek için yeni bir yöntem geliştirdi. Mistral ve LLaVA gibi hizalanmış modeller bile eğitim sürecinden kalma istenmeyen davranışlar sergileyebiliyor. Mevcut güvenlik yöntemleri sadece tercih edilen yanıtları teşvik ediyor ancak zararlı çıktılara neden olan alt ağları doğrudan kaldırmıyor. Yeni geliştirilen 'budama' çerçevesi, gradyant-free bir atıf mekanizması kullanarak bu tehlikeli parametreleri tespit ediyor ve kaldırıyor. Sistem, GPU kaynaklarını verimli kullanırken farklı mimarilerde genelleştirilebiliyor. Deneysel sonuçlar, zararlı üretimlerde önemli azalma ve jailbreak saldırılarına karşı daha iyi direnç gösterirken model performansında minimal kayıp olduğunu ortaya koyuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Görüş Sistemlerine Yeni Saldırı Yöntemi: Kırışıklıklarla Aldatma
Araştırmacılar, görsel-dil modellerinin (VLM) güvenlik açığını ortaya çıkaran yeni bir saldırı yöntemi geliştirdi. Bu yöntem, kumaş kırışıklıklarının fiziğinden ilham alarak, yüzeylerde oluşturulan gerçekçi deformasyonlarla yapay zeka sistemlerini yanıltabiliyor. Çalışma, günümüzde görüntü tanıma, açıklama oluşturma ve görsel soru-cevap gibi alanlarda kullanılan VLM'lerin, esnek yüzeylerdeki kırışıklık gibi fiziksel değişimlere karşı ne kadar savunmasız olduğunu gösteriyor. Geliştirilen parametrik pertürbasyon yöntemi, çok ölçekli kırışıklık alanları oluşturarak fotorealistik görüntü bozulmaları yaratıyor. Bu keşif, yapay zeka güvenliği açısından önemli çünkü gerçek dünyada kolayca uygulanabilir saldırıların mümkün olduğunu ortaya koyuyor.