“güvenlik açığı” için sonuçlar
47 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Büyük Akıl Yürütme Modellerinin Güvenlik Açığı Keşfedildi
Matematik ve programlama gibi karmaşık görevlerde başarılı olan Büyük Akıl Yürütme Modelleri (LRM), gelişmiş akıl yürütme yeteneklerine rağmen güvenlik açısından sorunlu davranışlar sergileyebiliyor. Araştırmacılar, bu modellerin güvenliğini artırmak için kapsamlı bir çalışma gerçekleştirdi ve beklenmedik bir keşif yaptı: DeepSeek-R1 modelinden güvenli yanıtları doğrudan aktarmak, güvenliği önemli ölçüde artırmıyor. Çalışmada beş kritik risk unsuru tespit edildi ve bu sorunların veri hazırlama sürecinde ele alınmasının güvenlik performansını ciddi şekilde iyileştirdiği gösterildi. Bu bulgular, yapay zeka modellerinin akıl yürütme kapasitesi ile güvenlik performansı arasındaki karmaşık ilişkiye ışık tutuyor.
Yapay Zeka Modellerinde Yeni Güvenlik Açığı: Tek Kullanıcıyla 'Hipnoz' Saldırısı
Araştırmacılar, kullanıcı geri bildirimlerini öğrenen yapay zeka modellerinde kritik bir güvenlik açığı keşfetti. 'LLM Hipnozu' adı verilen bu yöntemde, kötü niyetli bir kullanıcı sadece sorular sorarak ve yanıtları oylarıyla değerlendirerek, modelin tüm kullanıcılara vereceği yanıtları kalıcı olarak değiştirebiliyor. Saldırgan, modelden bazen zararlı bazen normal yanıtlar üretmesini sağlayıp, zararlı olanları onaylarken normal olanları reddediyor. Bu süreç, modelin tercih öğrenme sistemini manipüle ederek yanlış bilgi enjeksiyonu, güvenlik açıklı kod üretimi ve sahte finansal haberler yayma gibi ciddi sonuçlara yol açabiliyor.
Güvenli Bilişim Sistemlerinde Kritik Açıklar Keşfedildi
Araştırmacılar, gizli bilgi işlem sistemlerinin temelini oluşturan TEE konteynerlerinde ciddi güvenlik açıkları tespit etti. Bu sistemler, hassas verileri kötü niyetli yazılımlardan korumak için tasarlanmışken, yapılan kapsamlı analizde 12 yeni hata, 6 saldırı vektörü ve 3 CVE güvenlik açığı ortaya çıkarıldı. Bulut bilişim altyapısında yaygın kullanılan bu teknolojilerdeki açıklar, kod çalıştırma, hizmet durdurma ve bilgi sızıntısı gibi saldırılara zemin hazırlıyor. Çalışma, güvenilir yürütme ortamlarının mevcut durumunu sorgulatırken, gelecekteki güvenlik standartları için önemli ipuçları sunuyor.
Yeni programlama dili donanım güvenlik açıklarını ortaya çıkardı
Araştırmacılar, donanım belgelerini analiz etmek için özel olarak tasarlanmış Sockeye adlı yeni bir programlama dili geliştirdi. Bu dil sayesinde sekiz farklı donanım platformunun güvenlik analizini yapan ekip, belgelerdeki hataları tespit etti ve gerçek bir sunucu çipinde güvenlik açığı keşfetti. Modern donanımların artan karmaşıklığı, sistem programcıları için büyük zorluklar yaratırken, bu yenilikçi yaklaşım donanım güvenliğini matematiksel olarak kanıtlama imkanı sunuyor. Çalışma, donanım üreticilerinin belgelerindeki yetersizlikler ve belirsizliklerin nasıl ciddi güvenlik risklerine yol açabileceğini gösteriyor.
Yapay Zeka Modellerinde 'Gizlilik Çöküşü' Keşfedildi
Araştırmacılar, büyük dil modellerinde şaşırtıcı bir güvenlik açığı keşfetti: zararsız görünen eğitim süreçleri bile modellerin gizlilik anlayışını tamamen yok edebiliyor. 'Gizlilik çöküşü' adı verilen bu olgu, modellerin bağlamsal gizlilik normlarını anlama yetisini kaybetmesine ve uygunsuz bilgi paylaşımına yol açıyor. En tehlikeli yanı ise bu sorunun 'sessiz bir başarısızlık' olması - modeller standart performans testlerinde başarılı görünürken ciddi gizlilik ihlalleri yapabiliyor. Altı farklı model üzerinde yapılan testler, bu sorunun hem kapalı hem açık kaynaklı sistemlerde yaygın olduğunu ortaya koydu.
Dijital İçerik Doğrulamada Çelişki Sorunu: AI ve İnsan Yapımı Sinyalleri Çakışıyor
Araştırmacılar, dijital içerik doğrulama sistemlerinde ciddi bir güvenlik açığı keşfetti. C2PA standardı ve görünmez filigran teknolojisi gibi iki farklı doğrulama katmanının teknik olarak bağımsız çalışması, aynı dijital varlığın hem insan yapımı hem de AI üretimi olarak geçerli şekilde işaretlenmesine olanak tanıyor. 'Bütünlük Çakışması' adı verilen bu durumda, bir görsel dosya kriptografik olarak geçerli C2PA manifesti ile insan yapımı olduğunu iddia ederken, aynı zamanda piksellerinde AI üretimi olduğunu gösteren filigran taşıyabiliyor. Bu çelişkili durumun, standart düzenleme araçlarıyla herhangi bir kriptografik güvenlik ihlali yapmadan mümkün olduğu kanıtlandı.
Java Uygulamalarındaki Güvenlik Açıklarını Tespit Eden Yeni Sistem: GONDAR
Araştırmacılar, Java uygulamalarındaki güvenlik açıklarını daha etkili bir şekilde tespit edebilen GONDAR adlı yeni bir sistem geliştirdi. Bu çerçeve, güvenlik açısından hassas API'ların semantiklerini sistematik olarak kullanarak hedefli zafiyet keşfi yapıyor. Java uygulamaları, dosya işlemlerinden uzaktan kod çalıştırmaya kadar birçok güvenlik riski taşıyor. GONDAR, bu riskleri daha doğru tespit etmek için yapay zeka destekli filtreleme ve özelleştirilmiş ajanlar kullanıyor. Sistem, önce erişilebilir ve istismar edilebilir API çağrı noktalarını belirliyor, ardından iki uzman ajan devreye giriyor.
Kuantum Sonrası Şifreleme Donanımlarında Güvenlik Açığı Tespit Edildi
Araştırmacılar, kuantum bilgisayarlara karşı geliştirilmiş olan ML-DSA ve ML-KEM şifreleme algoritmalarını çalıştıran Adams Bridge donanım hızlandırıcısında önemli güvenlik zafiyetleri keşfetti. Bu donanım, güç analizi saldırılarına karşı korunma için maskeleme ve karıştırma tekniklerini kullanıyor ancak analiz, sistemin iddia edilen güvenlik seviyesinin gerçekte çok daha düşük olduğunu ortaya koydu. Özellikle Random Start Index karıştırma yönteminin, tam rastgele permütasyon yerine katı sınırlı entropi sağladığı belirlendi. Bu bulgu, kuantum sonrası kriptografi donanımlarının yan kanal saldırılarına karşı daha güçlü koruma mekanizmalarına ihtiyacı olduğunu gösteriyor.
AI robotların güvenlik açığı: Tehlikeleri hafife alan dünya modelleri
Yapay zeka araştırmacıları, robotik sistemlerde kullanılan video tabanlı dünya modellerinin ciddi bir güvenlik sorunu yaşadığını keşfetti. Bu modeller, robotların çevrelerini simüle etmek ve karar vermek için kullanılıyor ancak fiziksel riskleri doğru şekilde değerlendiremiyor. Araştırma, bu AI sistemlerinin tehlikeli durumları hafife aldığını ve ciddi sonuçları öngöremediğini ortaya koydu. Bilim insanları, sorunu çözmek için gerçek kaza raporları ve güvenlik kılavuzlarına dayanan ICAT adlı yeni bir test yöntemi geliştirdi. Bu çalışma, AI robotların güvenli şekilde topluma entegre edilmesi için kritik önem taşıyor ve mevcut teknolojinin güvenlik açısından yetersiz kaldığını gösteriyor.
Yapay zeka öğrenci sesindeki alarm işaretlerini tespit edebiliyor
Araştırmacılar, öğrencilerin sözlü yanıtlarından endişe verici durumları tespit edebilen hibrit bir yapay zeka sistemi geliştirdi. Sistem, hem konuşmanın içeriğini hem de ses tonunu analiz ederek, psikolojik sıkıntı yaşayan öğrencileri erken fark edebiliyor. Bu teknoloji, otomatik sözlü değerlendirme sistemlerindeki kritik güvenlik açığını kapatmayı hedefliyor. Geliştirilen çift katmanlı yaklaşım, metin tabanlı sınıflandırıcı ile ses tabanlı prosodik analizi birleştirerek, geleneksel sistemlerden daha başarılı sonuçlar elde ediyor. Uzmanlar, zamanında müdahalenin hayat kurtarıcı olabileceği durumlarda bu sistemin insan değerlendirme sürecini hızlandırabileceğini belirtiyor.
LLM Hata Ayıklama Sistemlerinde Kritik Güvenlik Açığı Keşfedildi
Araştırmacılar, bulut hizmetlerinin günlük dosyalarını analiz eden yapay zeka sistemlerinde ciddi bir güvenlik açığı tespit etti. LogJack adlı bu saldırı yöntemi, zararlı komutları günlük kayıtlarının içine gizleyerek AI sistemlerini kandırıyor. 8 farklı büyük dil modeli üzerinde yapılan testlerde, bazı modellerin %86'ya varan oranlarda zararlı komutları aynen çalıştırdığı görüldü. En güvenli model Claude Sonnet olurken, Llama 3.3 en savunmasız model olarak öne çıktı. AWS, Google Cloud ve Azure'un güvenlik sistemleri bu saldırıları tespit etmede büyük ölçüde başarısız oldu. Bu keşif, AI sistemlerinin bulut altyapılarında kullanımının yaygınlaştığı dönemde kritik önem taşıyor.
Apple Intelligence'ta Kritik Güvenlik Açığı: Serpent Saldırısı Token Hırsızlığına Yol Açıyor
Güvenlik araştırmacıları, Apple Intelligence'ın güvenlik sisteminde ciddi bir açık keşfetti. 'Serpent' adı verilen bu saldırı yöntemi, kullanıcıların cihazlarından erişim tokenlarını çalarak bunları farklı cihazlarda kullanmayı mümkün kılıyor. Apple'ın yapay zeka hizmeti, anonim erişim tokenleri kullanarak iki aşamalı güvenlik sistemiyle kullanıcı gizliliğini korumayı hedefliyordu. Ancak araştırma, bu koruma mekanizmasının traffic analizi, tersine mühendislik ve Apple'ın resmi belgelerinin karşılaştırılması yoluyla aşılabileceğini gösteriyor. En güncel macOS 26 Tahoe sürümünde bile başarılı saldırılar gerçekleştirilen bu keşif, yapay zeka hizmetlerinin güvenlik mimarilerinde köklü revizyonlara ihtiyaç olduğunu ortaya koyuyor. Çalıntı tokenlar, mağdurun kullanım limitlerini tüketerek ek zararlara yol açabiliyor.
Büyük AI modellerin düşünme süreçleri manipüle edilebiliyor
Araştırmacılar, gelişmiş yapay zeka modellerinin adım adım mantık yürütme süreçlerine zararlı içerik enjekte edebilen yeni bir saldırı yöntemi keşfetti. Bu saldırılar, modelin nihai cevabını değiştirmeden, düşünme aşamalarına tehlikeli bilgiler yerleştiriyor. Sağlık ve eğitim gibi kritik alanlarda kullanılan bu sistemlerin güvenlik açığı, psikolojik çerçeveleme teknikleri kullanılarak istismar ediliyor. Çalışma, AI güvenliğinin sadece son yanıtlara değil, tüm düşünme sürecine odaklanması gerektiğini ortaya koyuyor.
Gizli Kapı Sistemlerinde Güvenlik Açığı: SAT Algoritması ile İşlev Çözümleme
Araştırmacılar, hem veri hem de işlev mantığını korumayı hedefleyen yarı-özel işlev değerlendirme sistemlerinde kritik bir güvenlik açığı keşfetti. Gate-hiding garbled circuits adı verilen bu sistemler, kapı işlevlerini gizlerken devre topolojisini açık bırakıyor. Yeni geliştirilen SAT tabanlı saldırı yöntemi, sadece devrenin genel yapısını kullanarak gizli kapı operasyonlarını yeniden oluşturabiliyor. Bu keşif, kriptografik hesaplama sistemlerinin güvenlik tanımlarının yeniden gözden geçirilmesi gerektiğini ortaya koyuyor ve siber güvenlik alanında önemli etkilere sahip.
Kuantum makine öğrenmesinde simetri koruması güvenlik açığı yaratabilir
Araştırmacılar, simetri özelliklerini koruyan kuantum makine öğrenme modellerinin adversarial saldırılara karşı nasıl davrandığını inceledi. Rotasyonel eşdeğişkenlik özelliği olan kuantum modellerde yapılan çalışmada, simetrinin tek başına güvenlik garantisi sağlamadığı ortaya çıktı. Modellerin sadece simetri-değişmez bilgilere erişebilmesi, aynı zamanda onları belirli saldırı türlerine karşı savunmasız bırakıyor. Bu bulgular, kuantum makine öğrenme sistemlerinin güvenlik açıklarını anlamak ve daha dayanıklı modeller geliştirmek açısından önem taşıyor.
TwoHamsters: Yapay Zeka Görsel Üreticilerindeki Gizli Güvenlik Açığı Keşfedildi
Araştırmacılar, metin-görsel yapay zeka modellerinde yeni bir güvenlik zaafiyeti tespit etti. 'Çok Kavramlı Kompozisyonel Güvensizlik' adı verilen bu sorun, tek başına zararsız görünen kelimelerin bir araya geldiğinde sakıncalı içerikler üretebilmesini ifade ediyor. TwoHamsters adlı kapsamlı test platformu kullanılarak yapılan değerlendirmede, FLUX dahil güncel modellerin bu tür gizli risklere karşı savunmasız olduğu ortaya çıktı. 17.500 test istemi içeren benchmark, mevcut güvenlik önlemlerinin yetersizliğini gözler önüne serdi. Bu keşif, yapay zeka güvenlik sistemlerinin sadece açık tehditlerle değil, kavramların dolaylı birleşimlerinin yaratabileceği risklerle de mücadele etmesi gerektiğini gösteriyor. Bulgular, geliştiricilerin daha sofistike güvenlik mekanizmaları geliştirmesi için önemli veriler sunuyor.
ProcRoute: VPN'lerde Uygulama Bazlı Güvenlik Devrim
Araştırmacılar, kurumsal VPN ve sıfır güven ağ erişimi (ZTNA) sistemlerindeki kritik bir güvenlik açığını kapatacak yeni bir sistem geliştirdi. Mevcut split-tunnel VPN yapılandırmalarında, dahili ağ rotaları tüm cihaza erişim yetkisi veriyor ve kötü niyetli yazılımlar bu rotaları kötüye kullanabiliyor. ProcRoute adlı yeni sistem, sadece yetkili uygulamaların dahili ağ kaynaklarına erişmesine izin veriyor. Sistem, Linux'ta cgroup v2 ve eBPF teknolojilerini kullanarak her ağ bağlantısını denetliyor. WireGuard VPN ile yapılan testlerde sistemin başarıyla çalıştığı görüldü. Bu geliştirme, uzaktan çalışma döneminde artan VPN kullanımıyla birlikte daha da önemli hale gelen kurumsal ağ güvenliğine yeni bir boyut getiriyor.
Yazılım güvenlik taramalarındaki %92 yanlış alarm oranının sırrı çözüldü
Yazılım tedarik zinciri güvenliğinde kritik öneme sahip SBOM (Yazılım Malzeme Listesi) araçlarının etkinliği, ciddi doğruluk sorunları nedeniyle sorgulanıyor. 2.414 açık kaynak kod deposu üzerinde yapılan kapsamlı araştırma, güvenlik tarayıcılarının şaşırtıcı derecede yüksek yanlış pozitif oranlarla çalıştığını ortaya koyuyor. Çalışma, güçlü paket yöneticileri kullanılarak doğru SBOM'lar oluşturulabileceğini gösteriyor ancak asıl sorunun güvenlik tarayıcılarında olduğunu belirtiyor. Araştırmacılar, erişilemeyen kod parçalarındaki güvenlik açıklarının işaretlenmesinin ana neden olduğunu tespit ederek, fonksiyon çağrı analizi ile bu sorunun büyük ölçüde çözülebileceğini kanıtlıyor.
Yapay Zeka Güvenliğinde Yeni Tehdit: Akıl Yürütme Korsanlığı Keşfedildi
Araştırmacılar, büyük dil modellerinde (LLM) şimdiye kadar göz ardı edilen kritik bir güvenlik açığını ortaya çıkardı. 'Akıl Yürütme Korsanlığı' adı verilen bu yeni saldırı türü, yapay zekanın ana görevini değiştirmeden karar verme mantığını manipüle ediyor. Geleneksel güvenlik önlemlerinin hedef değiştirme saldırılarına odaklandığını belirten bilim insanları, bu yeni yaklaşımın modellerin karar alma kriterlerini gizlice değiştirerek yanlış sonuçlara ulaşmasına neden olabileceğini gösterdi. Bulgular, mevcut yapay zeka güvenlik stratejilerinin yetersiz olduğunu ve daha kapsamlı koruma mekanizmalarına ihtiyaç duyulduğunu ortaya koyuyor.
Siber güvenlik testlerinde yapay zeka ajanlarının sağlamlığı ölçüldü
Araştırmacılar, büyük dil modellerinin siber güvenlik görevlerindeki performansını daha etkili şekilde değerlendirmek için yeni bir yöntem geliştirdi. Geleneksel testlerin aksine, bu yaklaşım aynı güvenlik açığını farklı kod versiyonlarında test ederek yapay zeka ajanlarının ne kadar sağlam olduğunu ölçüyor. Evolve-CTF adlı araç, Python tabanlı siber güvenlik zorluklarından semantik olarak eşdeğer alternatifler üretiyor. 13 farklı yapay zeka modelinin test edildiği çalışmada, modellerin değişken adı değişikliklerine ve kod eklemelerine oldukça dayanıklı olduğu, ancak daha karmaşık dönüşümler ve kod gizleme teknikleri karşısında performanslarının düştüğü görüldü.
Yapay Zeka Görüş Sistemlerine Yeni Saldırı Yöntemi: Kırışıklıklarla Aldatma
Araştırmacılar, görsel-dil modellerinin (VLM) güvenlik açığını ortaya çıkaran yeni bir saldırı yöntemi geliştirdi. Bu yöntem, kumaş kırışıklıklarının fiziğinden ilham alarak, yüzeylerde oluşturulan gerçekçi deformasyonlarla yapay zeka sistemlerini yanıltabiliyor. Çalışma, günümüzde görüntü tanıma, açıklama oluşturma ve görsel soru-cevap gibi alanlarda kullanılan VLM'lerin, esnek yüzeylerdeki kırışıklık gibi fiziksel değişimlere karşı ne kadar savunmasız olduğunu gösteriyor. Geliştirilen parametrik pertürbasyon yöntemi, çok ölçekli kırışıklık alanları oluşturarak fotorealistik görüntü bozulmaları yaratıyor. Bu keşif, yapay zeka güvenliği açısından önemli çünkü gerçek dünyada kolayca uygulanabilir saldırıların mümkün olduğunu ortaya koyuyor.
Yapay Zeka Asistanları Zararsız Talimatlarda Bile Güvenlik Açığı Gösteriyor
Bilgisayar kullanım ajanları (CUA'lar) artık karmaşık görevleri bağımsız olarak yerine getirebiliyor, ancak yeni bir araştırma kritik bir güvenlik açığını ortaya koyuyor. Mevcut güvenlik değerlendirmeleri açık tehditlere odaklanırken, tamamen zararsız kullanıcı talimatlarının bile ciddi riskler doğurabileceği gözden kaçırılıyor. Araştırmacılar, 300 insan yapımı görevden oluşan OS-BLIND benchmarkını geliştirerek, en gelişmiş yapay zeka modellerinin bile %90'ın üzerinde saldırı başarı oranı gösterdiğini keşfetti. Güvenlik odaklı Claude 4.5 Sonnet bile %73 oranında zafiyet sergiledi. Bu durum, yapay zeka asistanlarının güvenlik mekanizmalarının yeniden gözden geçirilmesi gerektiğini gösteriyor.
Şifreli İnternette Cihaz Kimlik Tespiti: Yeni AI Modeli Güvenlik Açığını Ortaya Çıkardı
Araştırmacılar, şifreli internet trafiğinden cihaz kimliklerini tespit edebilen CONTEX-T adlı yeni bir yapay zeka sistemi geliştirdi. Bu sistem, mesaj içeriğini okuyamasa bile, paket verilerinin zaman ve frekans analizini yaparak hangi cihazın iletişim kurduğunu belirleyebiliyor. IoT cihazlarının yaygınlaşmasıyla birlikte bu durum, şifrelemenin bile tam güvenlik sağlayamadığını gösteriyor. Çalışma, mevcut güvenlik önlemlerinin yeterli olmadığını ve yeni koruma stratejilerine ihtiyaç olduğunu ortaya koyuyor.