Arama · son güncelleme 6 sa önce
8.369
toplam haber
2
kategori
70+
bilim kaynağı
25-47 / 47 haber Sayfa 2 / 2
Teknoloji & Yapay Zeka
21 Apr

Büyük Akıl Yürütme Modellerinin Güvenlik Açığı Keşfedildi

Matematik ve programlama gibi karmaşık görevlerde başarılı olan Büyük Akıl Yürütme Modelleri (LRM), gelişmiş akıl yürütme yeteneklerine rağmen güvenlik açısından sorunlu davranışlar sergileyebiliyor. Araştırmacılar, bu modellerin güvenliğini artırmak için kapsamlı bir çalışma gerçekleştirdi ve beklenmedik bir keşif yaptı: DeepSeek-R1 modelinden güvenli yanıtları doğrudan aktarmak, güvenliği önemli ölçüde artırmıyor. Çalışmada beş kritik risk unsuru tespit edildi ve bu sorunların veri hazırlama sürecinde ele alınmasının güvenlik performansını ciddi şekilde iyileştirdiği gösterildi. Bu bulgular, yapay zeka modellerinin akıl yürütme kapasitesi ile güvenlik performansı arasındaki karmaşık ilişkiye ışık tutuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinde Yeni Güvenlik Açığı: Tek Kullanıcıyla 'Hipnoz' Saldırısı

Araştırmacılar, kullanıcı geri bildirimlerini öğrenen yapay zeka modellerinde kritik bir güvenlik açığı keşfetti. 'LLM Hipnozu' adı verilen bu yöntemde, kötü niyetli bir kullanıcı sadece sorular sorarak ve yanıtları oylarıyla değerlendirerek, modelin tüm kullanıcılara vereceği yanıtları kalıcı olarak değiştirebiliyor. Saldırgan, modelden bazen zararlı bazen normal yanıtlar üretmesini sağlayıp, zararlı olanları onaylarken normal olanları reddediyor. Bu süreç, modelin tercih öğrenme sistemini manipüle ederek yanlış bilgi enjeksiyonu, güvenlik açıklı kod üretimi ve sahte finansal haberler yayma gibi ciddi sonuçlara yol açabiliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Güvenli Bilişim Sistemlerinde Kritik Açıklar Keşfedildi

Araştırmacılar, gizli bilgi işlem sistemlerinin temelini oluşturan TEE konteynerlerinde ciddi güvenlik açıkları tespit etti. Bu sistemler, hassas verileri kötü niyetli yazılımlardan korumak için tasarlanmışken, yapılan kapsamlı analizde 12 yeni hata, 6 saldırı vektörü ve 3 CVE güvenlik açığı ortaya çıkarıldı. Bulut bilişim altyapısında yaygın kullanılan bu teknolojilerdeki açıklar, kod çalıştırma, hizmet durdurma ve bilgi sızıntısı gibi saldırılara zemin hazırlıyor. Çalışma, güvenilir yürütme ortamlarının mevcut durumunu sorgulatırken, gelecekteki güvenlik standartları için önemli ipuçları sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yeni programlama dili donanım güvenlik açıklarını ortaya çıkardı

Araştırmacılar, donanım belgelerini analiz etmek için özel olarak tasarlanmış Sockeye adlı yeni bir programlama dili geliştirdi. Bu dil sayesinde sekiz farklı donanım platformunun güvenlik analizini yapan ekip, belgelerdeki hataları tespit etti ve gerçek bir sunucu çipinde güvenlik açığı keşfetti. Modern donanımların artan karmaşıklığı, sistem programcıları için büyük zorluklar yaratırken, bu yenilikçi yaklaşım donanım güvenliğini matematiksel olarak kanıtlama imkanı sunuyor. Çalışma, donanım üreticilerinin belgelerindeki yetersizlikler ve belirsizliklerin nasıl ciddi güvenlik risklerine yol açabileceğini gösteriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinde 'Gizlilik Çöküşü' Keşfedildi

Araştırmacılar, büyük dil modellerinde şaşırtıcı bir güvenlik açığı keşfetti: zararsız görünen eğitim süreçleri bile modellerin gizlilik anlayışını tamamen yok edebiliyor. 'Gizlilik çöküşü' adı verilen bu olgu, modellerin bağlamsal gizlilik normlarını anlama yetisini kaybetmesine ve uygunsuz bilgi paylaşımına yol açıyor. En tehlikeli yanı ise bu sorunun 'sessiz bir başarısızlık' olması - modeller standart performans testlerinde başarılı görünürken ciddi gizlilik ihlalleri yapabiliyor. Altı farklı model üzerinde yapılan testler, bu sorunun hem kapalı hem açık kaynaklı sistemlerde yaygın olduğunu ortaya koydu.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Dijital İçerik Doğrulamada Çelişki Sorunu: AI ve İnsan Yapımı Sinyalleri Çakışıyor

Araştırmacılar, dijital içerik doğrulama sistemlerinde ciddi bir güvenlik açığı keşfetti. C2PA standardı ve görünmez filigran teknolojisi gibi iki farklı doğrulama katmanının teknik olarak bağımsız çalışması, aynı dijital varlığın hem insan yapımı hem de AI üretimi olarak geçerli şekilde işaretlenmesine olanak tanıyor. 'Bütünlük Çakışması' adı verilen bu durumda, bir görsel dosya kriptografik olarak geçerli C2PA manifesti ile insan yapımı olduğunu iddia ederken, aynı zamanda piksellerinde AI üretimi olduğunu gösteren filigran taşıyabiliyor. Bu çelişkili durumun, standart düzenleme araçlarıyla herhangi bir kriptografik güvenlik ihlali yapmadan mümkün olduğu kanıtlandı.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Java Uygulamalarındaki Güvenlik Açıklarını Tespit Eden Yeni Sistem: GONDAR

Araştırmacılar, Java uygulamalarındaki güvenlik açıklarını daha etkili bir şekilde tespit edebilen GONDAR adlı yeni bir sistem geliştirdi. Bu çerçeve, güvenlik açısından hassas API'ların semantiklerini sistematik olarak kullanarak hedefli zafiyet keşfi yapıyor. Java uygulamaları, dosya işlemlerinden uzaktan kod çalıştırmaya kadar birçok güvenlik riski taşıyor. GONDAR, bu riskleri daha doğru tespit etmek için yapay zeka destekli filtreleme ve özelleştirilmiş ajanlar kullanıyor. Sistem, önce erişilebilir ve istismar edilebilir API çağrı noktalarını belirliyor, ardından iki uzman ajan devreye giriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Kuantum Sonrası Şifreleme Donanımlarında Güvenlik Açığı Tespit Edildi

Araştırmacılar, kuantum bilgisayarlara karşı geliştirilmiş olan ML-DSA ve ML-KEM şifreleme algoritmalarını çalıştıran Adams Bridge donanım hızlandırıcısında önemli güvenlik zafiyetleri keşfetti. Bu donanım, güç analizi saldırılarına karşı korunma için maskeleme ve karıştırma tekniklerini kullanıyor ancak analiz, sistemin iddia edilen güvenlik seviyesinin gerçekte çok daha düşük olduğunu ortaya koydu. Özellikle Random Start Index karıştırma yönteminin, tam rastgele permütasyon yerine katı sınırlı entropi sağladığı belirlendi. Bu bulgu, kuantum sonrası kriptografi donanımlarının yan kanal saldırılarına karşı daha güçlü koruma mekanizmalarına ihtiyacı olduğunu gösteriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

AI robotların güvenlik açığı: Tehlikeleri hafife alan dünya modelleri

Yapay zeka araştırmacıları, robotik sistemlerde kullanılan video tabanlı dünya modellerinin ciddi bir güvenlik sorunu yaşadığını keşfetti. Bu modeller, robotların çevrelerini simüle etmek ve karar vermek için kullanılıyor ancak fiziksel riskleri doğru şekilde değerlendiremiyor. Araştırma, bu AI sistemlerinin tehlikeli durumları hafife aldığını ve ciddi sonuçları öngöremediğini ortaya koydu. Bilim insanları, sorunu çözmek için gerçek kaza raporları ve güvenlik kılavuzlarına dayanan ICAT adlı yeni bir test yöntemi geliştirdi. Bu çalışma, AI robotların güvenli şekilde topluma entegre edilmesi için kritik önem taşıyor ve mevcut teknolojinin güvenlik açısından yetersiz kaldığını gösteriyor.

arXiv (Robotik) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay zeka öğrenci sesindeki alarm işaretlerini tespit edebiliyor

Araştırmacılar, öğrencilerin sözlü yanıtlarından endişe verici durumları tespit edebilen hibrit bir yapay zeka sistemi geliştirdi. Sistem, hem konuşmanın içeriğini hem de ses tonunu analiz ederek, psikolojik sıkıntı yaşayan öğrencileri erken fark edebiliyor. Bu teknoloji, otomatik sözlü değerlendirme sistemlerindeki kritik güvenlik açığını kapatmayı hedefliyor. Geliştirilen çift katmanlı yaklaşım, metin tabanlı sınıflandırıcı ile ses tabanlı prosodik analizi birleştirerek, geleneksel sistemlerden daha başarılı sonuçlar elde ediyor. Uzmanlar, zamanında müdahalenin hayat kurtarıcı olabileceği durumlarda bu sistemin insan değerlendirme sürecini hızlandırabileceğini belirtiyor.

arXiv (Dilbilim & NLP) 0
Teknoloji & Yapay Zeka
20 Apr

LLM Hata Ayıklama Sistemlerinde Kritik Güvenlik Açığı Keşfedildi

Araştırmacılar, bulut hizmetlerinin günlük dosyalarını analiz eden yapay zeka sistemlerinde ciddi bir güvenlik açığı tespit etti. LogJack adlı bu saldırı yöntemi, zararlı komutları günlük kayıtlarının içine gizleyerek AI sistemlerini kandırıyor. 8 farklı büyük dil modeli üzerinde yapılan testlerde, bazı modellerin %86'ya varan oranlarda zararlı komutları aynen çalıştırdığı görüldü. En güvenli model Claude Sonnet olurken, Llama 3.3 en savunmasız model olarak öne çıktı. AWS, Google Cloud ve Azure'un güvenlik sistemleri bu saldırıları tespit etmede büyük ölçüde başarısız oldu. Bu keşif, AI sistemlerinin bulut altyapılarında kullanımının yaygınlaştığı dönemde kritik önem taşıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Apple Intelligence'ta Kritik Güvenlik Açığı: Serpent Saldırısı Token Hırsızlığına Yol Açıyor

Güvenlik araştırmacıları, Apple Intelligence'ın güvenlik sisteminde ciddi bir açık keşfetti. 'Serpent' adı verilen bu saldırı yöntemi, kullanıcıların cihazlarından erişim tokenlarını çalarak bunları farklı cihazlarda kullanmayı mümkün kılıyor. Apple'ın yapay zeka hizmeti, anonim erişim tokenleri kullanarak iki aşamalı güvenlik sistemiyle kullanıcı gizliliğini korumayı hedefliyordu. Ancak araştırma, bu koruma mekanizmasının traffic analizi, tersine mühendislik ve Apple'ın resmi belgelerinin karşılaştırılması yoluyla aşılabileceğini gösteriyor. En güncel macOS 26 Tahoe sürümünde bile başarılı saldırılar gerçekleştirilen bu keşif, yapay zeka hizmetlerinin güvenlik mimarilerinde köklü revizyonlara ihtiyaç olduğunu ortaya koyuyor. Çalıntı tokenlar, mağdurun kullanım limitlerini tüketerek ek zararlara yol açabiliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Büyük AI modellerin düşünme süreçleri manipüle edilebiliyor

Araştırmacılar, gelişmiş yapay zeka modellerinin adım adım mantık yürütme süreçlerine zararlı içerik enjekte edebilen yeni bir saldırı yöntemi keşfetti. Bu saldırılar, modelin nihai cevabını değiştirmeden, düşünme aşamalarına tehlikeli bilgiler yerleştiriyor. Sağlık ve eğitim gibi kritik alanlarda kullanılan bu sistemlerin güvenlik açığı, psikolojik çerçeveleme teknikleri kullanılarak istismar ediliyor. Çalışma, AI güvenliğinin sadece son yanıtlara değil, tüm düşünme sürecine odaklanması gerektiğini ortaya koyuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Gizli Kapı Sistemlerinde Güvenlik Açığı: SAT Algoritması ile İşlev Çözümleme

Araştırmacılar, hem veri hem de işlev mantığını korumayı hedefleyen yarı-özel işlev değerlendirme sistemlerinde kritik bir güvenlik açığı keşfetti. Gate-hiding garbled circuits adı verilen bu sistemler, kapı işlevlerini gizlerken devre topolojisini açık bırakıyor. Yeni geliştirilen SAT tabanlı saldırı yöntemi, sadece devrenin genel yapısını kullanarak gizli kapı operasyonlarını yeniden oluşturabiliyor. Bu keşif, kriptografik hesaplama sistemlerinin güvenlik tanımlarının yeniden gözden geçirilmesi gerektiğini ortaya koyuyor ve siber güvenlik alanında önemli etkilere sahip.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Kuantum makine öğrenmesinde simetri koruması güvenlik açığı yaratabilir

Araştırmacılar, simetri özelliklerini koruyan kuantum makine öğrenme modellerinin adversarial saldırılara karşı nasıl davrandığını inceledi. Rotasyonel eşdeğişkenlik özelliği olan kuantum modellerde yapılan çalışmada, simetrinin tek başına güvenlik garantisi sağlamadığı ortaya çıktı. Modellerin sadece simetri-değişmez bilgilere erişebilmesi, aynı zamanda onları belirli saldırı türlerine karşı savunmasız bırakıyor. Bu bulgular, kuantum makine öğrenme sistemlerinin güvenlik açıklarını anlamak ve daha dayanıklı modeller geliştirmek açısından önem taşıyor.

arXiv — Kuantum Fiziği 0
Teknoloji & Yapay Zeka
20 Apr

TwoHamsters: Yapay Zeka Görsel Üreticilerindeki Gizli Güvenlik Açığı Keşfedildi

Araştırmacılar, metin-görsel yapay zeka modellerinde yeni bir güvenlik zaafiyeti tespit etti. 'Çok Kavramlı Kompozisyonel Güvensizlik' adı verilen bu sorun, tek başına zararsız görünen kelimelerin bir araya geldiğinde sakıncalı içerikler üretebilmesini ifade ediyor. TwoHamsters adlı kapsamlı test platformu kullanılarak yapılan değerlendirmede, FLUX dahil güncel modellerin bu tür gizli risklere karşı savunmasız olduğu ortaya çıktı. 17.500 test istemi içeren benchmark, mevcut güvenlik önlemlerinin yetersizliğini gözler önüne serdi. Bu keşif, yapay zeka güvenlik sistemlerinin sadece açık tehditlerle değil, kavramların dolaylı birleşimlerinin yaratabileceği risklerle de mücadele etmesi gerektiğini gösteriyor. Bulgular, geliştiricilerin daha sofistike güvenlik mekanizmaları geliştirmesi için önemli veriler sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

ProcRoute: VPN'lerde Uygulama Bazlı Güvenlik Devrim

Araştırmacılar, kurumsal VPN ve sıfır güven ağ erişimi (ZTNA) sistemlerindeki kritik bir güvenlik açığını kapatacak yeni bir sistem geliştirdi. Mevcut split-tunnel VPN yapılandırmalarında, dahili ağ rotaları tüm cihaza erişim yetkisi veriyor ve kötü niyetli yazılımlar bu rotaları kötüye kullanabiliyor. ProcRoute adlı yeni sistem, sadece yetkili uygulamaların dahili ağ kaynaklarına erişmesine izin veriyor. Sistem, Linux'ta cgroup v2 ve eBPF teknolojilerini kullanarak her ağ bağlantısını denetliyor. WireGuard VPN ile yapılan testlerde sistemin başarıyla çalıştığı görüldü. Bu geliştirme, uzaktan çalışma döneminde artan VPN kullanımıyla birlikte daha da önemli hale gelen kurumsal ağ güvenliğine yeni bir boyut getiriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yazılım güvenlik taramalarındaki %92 yanlış alarm oranının sırrı çözüldü

Yazılım tedarik zinciri güvenliğinde kritik öneme sahip SBOM (Yazılım Malzeme Listesi) araçlarının etkinliği, ciddi doğruluk sorunları nedeniyle sorgulanıyor. 2.414 açık kaynak kod deposu üzerinde yapılan kapsamlı araştırma, güvenlik tarayıcılarının şaşırtıcı derecede yüksek yanlış pozitif oranlarla çalıştığını ortaya koyuyor. Çalışma, güçlü paket yöneticileri kullanılarak doğru SBOM'lar oluşturulabileceğini gösteriyor ancak asıl sorunun güvenlik tarayıcılarında olduğunu belirtiyor. Araştırmacılar, erişilemeyen kod parçalarındaki güvenlik açıklarının işaretlenmesinin ana neden olduğunu tespit ederek, fonksiyon çağrı analizi ile bu sorunun büyük ölçüde çözülebileceğini kanıtlıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Güvenliğinde Yeni Tehdit: Akıl Yürütme Korsanlığı Keşfedildi

Araştırmacılar, büyük dil modellerinde (LLM) şimdiye kadar göz ardı edilen kritik bir güvenlik açığını ortaya çıkardı. 'Akıl Yürütme Korsanlığı' adı verilen bu yeni saldırı türü, yapay zekanın ana görevini değiştirmeden karar verme mantığını manipüle ediyor. Geleneksel güvenlik önlemlerinin hedef değiştirme saldırılarına odaklandığını belirten bilim insanları, bu yeni yaklaşımın modellerin karar alma kriterlerini gizlice değiştirerek yanlış sonuçlara ulaşmasına neden olabileceğini gösterdi. Bulgular, mevcut yapay zeka güvenlik stratejilerinin yetersiz olduğunu ve daha kapsamlı koruma mekanizmalarına ihtiyaç duyulduğunu ortaya koyuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Siber güvenlik testlerinde yapay zeka ajanlarının sağlamlığı ölçüldü

Araştırmacılar, büyük dil modellerinin siber güvenlik görevlerindeki performansını daha etkili şekilde değerlendirmek için yeni bir yöntem geliştirdi. Geleneksel testlerin aksine, bu yaklaşım aynı güvenlik açığını farklı kod versiyonlarında test ederek yapay zeka ajanlarının ne kadar sağlam olduğunu ölçüyor. Evolve-CTF adlı araç, Python tabanlı siber güvenlik zorluklarından semantik olarak eşdeğer alternatifler üretiyor. 13 farklı yapay zeka modelinin test edildiği çalışmada, modellerin değişken adı değişikliklerine ve kod eklemelerine oldukça dayanıklı olduğu, ancak daha karmaşık dönüşümler ve kod gizleme teknikleri karşısında performanslarının düştüğü görüldü.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Görüş Sistemlerine Yeni Saldırı Yöntemi: Kırışıklıklarla Aldatma

Araştırmacılar, görsel-dil modellerinin (VLM) güvenlik açığını ortaya çıkaran yeni bir saldırı yöntemi geliştirdi. Bu yöntem, kumaş kırışıklıklarının fiziğinden ilham alarak, yüzeylerde oluşturulan gerçekçi deformasyonlarla yapay zeka sistemlerini yanıltabiliyor. Çalışma, günümüzde görüntü tanıma, açıklama oluşturma ve görsel soru-cevap gibi alanlarda kullanılan VLM'lerin, esnek yüzeylerdeki kırışıklık gibi fiziksel değişimlere karşı ne kadar savunmasız olduğunu gösteriyor. Geliştirilen parametrik pertürbasyon yöntemi, çok ölçekli kırışıklık alanları oluşturarak fotorealistik görüntü bozulmaları yaratıyor. Bu keşif, yapay zeka güvenliği açısından önemli çünkü gerçek dünyada kolayca uygulanabilir saldırıların mümkün olduğunu ortaya koyuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Asistanları Zararsız Talimatlarda Bile Güvenlik Açığı Gösteriyor

Bilgisayar kullanım ajanları (CUA'lar) artık karmaşık görevleri bağımsız olarak yerine getirebiliyor, ancak yeni bir araştırma kritik bir güvenlik açığını ortaya koyuyor. Mevcut güvenlik değerlendirmeleri açık tehditlere odaklanırken, tamamen zararsız kullanıcı talimatlarının bile ciddi riskler doğurabileceği gözden kaçırılıyor. Araştırmacılar, 300 insan yapımı görevden oluşan OS-BLIND benchmarkını geliştirerek, en gelişmiş yapay zeka modellerinin bile %90'ın üzerinde saldırı başarı oranı gösterdiğini keşfetti. Güvenlik odaklı Claude 4.5 Sonnet bile %73 oranında zafiyet sergiledi. Bu durum, yapay zeka asistanlarının güvenlik mekanizmalarının yeniden gözden geçirilmesi gerektiğini gösteriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
18 Apr

Şifreli İnternette Cihaz Kimlik Tespiti: Yeni AI Modeli Güvenlik Açığını Ortaya Çıkardı

Araştırmacılar, şifreli internet trafiğinden cihaz kimliklerini tespit edebilen CONTEX-T adlı yeni bir yapay zeka sistemi geliştirdi. Bu sistem, mesaj içeriğini okuyamasa bile, paket verilerinin zaman ve frekans analizini yaparak hangi cihazın iletişim kurduğunu belirleyebiliyor. IoT cihazlarının yaygınlaşmasıyla birlikte bu durum, şifrelemenin bile tam güvenlik sağlayamadığını gösteriyor. Çalışma, mevcut güvenlik önlemlerinin yeterli olmadığını ve yeni koruma stratejilerine ihtiyaç olduğunu ortaya koyuyor.

arXiv (CS + AI) 0