Arama · son güncelleme 7 sa önce
8.369
toplam haber
2
kategori
70+
bilim kaynağı
25-44 / 44 haber Sayfa 2 / 2
Teknoloji & Yapay Zeka
21 Apr

Dijital İçerik Doğrulamada Çelişki Sorunu: AI ve İnsan Yapımı Sinyalleri Çakışıyor

Araştırmacılar, dijital içerik doğrulama sistemlerinde ciddi bir güvenlik açığı keşfetti. C2PA standardı ve görünmez filigran teknolojisi gibi iki farklı doğrulama katmanının teknik olarak bağımsız çalışması, aynı dijital varlığın hem insan yapımı hem de AI üretimi olarak geçerli şekilde işaretlenmesine olanak tanıyor. 'Bütünlük Çakışması' adı verilen bu durumda, bir görsel dosya kriptografik olarak geçerli C2PA manifesti ile insan yapımı olduğunu iddia ederken, aynı zamanda piksellerinde AI üretimi olduğunu gösteren filigran taşıyabiliyor. Bu çelişkili durumun, standart düzenleme araçlarıyla herhangi bir kriptografik güvenlik ihlali yapmadan mümkün olduğu kanıtlandı.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka ile C Kodlarını Daha Güvenli Rust'a Çeviren Yeni Teknik

Araştırmacılar, C programlama dilinde yazılmış kodları Rust diline çeviren mevcut araçların güvenlik açığı yaratan ham işaretçi problemini çözen yeni bir yöntem geliştirdi. PR2 adlı bu sistem, GPT-4 büyük dil modelini kullanarak ham işaretçileri Rust'ın güvenli veri yapılarına otomatik olarak dönüştürüyor. C dilinde yazılmış eski kodların modern ve güvenli Rust diline geçirilmesi, yazılım güvenliğini artırmak için kritik bir süreç. Mevcut araçlar sözdizimi çevirisini başarıyla yapsa da, ortaya çıkan Rust kodları güvenli olmayan yapılar içeriyor. Yeni geliştirilen teknik, karar ağacı tabanlı yönlendirme kullanarak bu sorunu çözüyor ve hataları otomatik olarak düzeltiyor. Bu gelişme, milyonlarca satır C kodu bulunan kritik sistemlerin daha güvenli hale getirilmesinde önemli bir adım.

arXiv (CS + AI) 1
Teknoloji & Yapay Zeka
21 Apr

Büyük Akıl Yürütme Modellerinin Güvenlik Açığı Keşfedildi

Matematik ve programlama gibi karmaşık görevlerde başarılı olan Büyük Akıl Yürütme Modelleri (LRM), gelişmiş akıl yürütme yeteneklerine rağmen güvenlik açısından sorunlu davranışlar sergileyebiliyor. Araştırmacılar, bu modellerin güvenliğini artırmak için kapsamlı bir çalışma gerçekleştirdi ve beklenmedik bir keşif yaptı: DeepSeek-R1 modelinden güvenli yanıtları doğrudan aktarmak, güvenliği önemli ölçüde artırmıyor. Çalışmada beş kritik risk unsuru tespit edildi ve bu sorunların veri hazırlama sürecinde ele alınmasının güvenlik performansını ciddi şekilde iyileştirdiği gösterildi. Bu bulgular, yapay zeka modellerinin akıl yürütme kapasitesi ile güvenlik performansı arasındaki karmaşık ilişkiye ışık tutuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

SafeAgent: Yapay Zeka Ajanları İçin Yeni Güvenlik Mimarisi Geliştirildi

Büyük dil modeli tabanlı yapay zeka ajanları, çok adımlı iş akışları ve araç etkileşimleri sırasında prompt-enjeksiyon saldırılarına karşı savunmasız kalabiliyor. Araştırmacılar, bu güvenlik açığına karşı SafeAgent adlı yeni bir runtime koruma mimarisi geliştirdi. Sistem, ajan güvenliğini gelişen etkileşim yörüngelerinde durumsal bir karar problemi olarak ele alıyor. İki koordineli bileşenden oluşan mimari: ajan döngüsü etrafındaki eylemlere aracılık eden runtime kontrolörü ve kalıcı oturum durumu üzerinde çalışan bağlam-farkında karar çekirdeği. Agent Security Bench ve InjecAgent testlerinde SafeAgent'ın etkinliği kanıtlandı. Bu gelişme, gelecekte daha güvenli AI ajan sistemlerinin tasarımında önemli bir adım.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Takımlarının 'Çoğunluk Tuzağı' Sorunu Token Düzeyinde Çözüldü

Araştırmacılar, birden fazla yapay zeka ajanının birlikte çalıştığı sistemlerde kritik bir güvenlik açığı keşfetti. Mevcut sistemlerde kullanılan çoğunluk oylaması yöntemi, kötü niyetli müdahaleler karşısında savunmasız kalabiliyor. Bozuk ajanlar yerel bir çoğunluk oluşturduğunda, sistem tamamen çökebiliyor. Çünkü oylama sadece nihai sonuçlara bakıyor, ara mantık hatalarını görmezden geliyor. Bilim insanları bu sorunu çözmek için Token Düzeyinde Sırayla İşbirliği adında yeni bir yöntem geliştirdi. Bu yaklaşımda ajanlar, sonuçları ayrı ayrı oylamak yerine, ortak bir bağlamda sırayla kelime üretme sürecine katılıyor. Bu yöntem, sistemi kırılgan oy sayma mekanizmasından dinamik bir işbirliği zincirine dönüştürüyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Büyük Dil Modelleri Siber Güvenlik Testlerinde Sınırlarını Zorladı

Araştırmacılar, 7 farklı şirketten 10 büyük dil modelini siber güvenlik saldırı görevlerinde test etti. NYU'nun 200 zorlu siber güvenlik problemini çözen bu modeller arasında Claude 4.5 Opus %59 başarı oranıyla öne çıktı. Çalışma, yapay zeka sistemlerinin penetrasyon testleri ve siber güvenlik açığı keşfinde ne kadar etkili olduğunu gösterdi. Özel olarak hazırlanan Kali Linux ortamında 100'den fazla güvenlik aracı kullanılan testlerde, modellerin siber saldırı senaryolarını çözme kabiliyetleri ölçüldü. Bu araştırma, AI'nın siber güvenlik alanındaki potansiyelini ve risklerini anlamamız açısından kritik veriler sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
21 Apr

Yapay Zeka Modellerinde Yeni Güvenlik Açığı: Tek Kullanıcıyla 'Hipnoz' Saldırısı

Araştırmacılar, kullanıcı geri bildirimlerini öğrenen yapay zeka modellerinde kritik bir güvenlik açığı keşfetti. 'LLM Hipnozu' adı verilen bu yöntemde, kötü niyetli bir kullanıcı sadece sorular sorarak ve yanıtları oylarıyla değerlendirerek, modelin tüm kullanıcılara vereceği yanıtları kalıcı olarak değiştirebiliyor. Saldırgan, modelden bazen zararlı bazen normal yanıtlar üretmesini sağlayıp, zararlı olanları onaylarken normal olanları reddediyor. Bu süreç, modelin tercih öğrenme sistemini manipüle ederek yanlış bilgi enjeksiyonu, güvenlik açıklı kod üretimi ve sahte finansal haberler yayma gibi ciddi sonuçlara yol açabiliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

LLM Hata Ayıklama Sistemlerinde Kritik Güvenlik Açığı Keşfedildi

Araştırmacılar, bulut hizmetlerinin günlük dosyalarını analiz eden yapay zeka sistemlerinde ciddi bir güvenlik açığı tespit etti. LogJack adlı bu saldırı yöntemi, zararlı komutları günlük kayıtlarının içine gizleyerek AI sistemlerini kandırıyor. 8 farklı büyük dil modeli üzerinde yapılan testlerde, bazı modellerin %86'ya varan oranlarda zararlı komutları aynen çalıştırdığı görüldü. En güvenli model Claude Sonnet olurken, Llama 3.3 en savunmasız model olarak öne çıktı. AWS, Google Cloud ve Azure'un güvenlik sistemleri bu saldırıları tespit etmede büyük ölçüde başarısız oldu. Bu keşif, AI sistemlerinin bulut altyapılarında kullanımının yaygınlaştığı dönemde kritik önem taşıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Kuantum makine öğrenmesinde simetri koruması güvenlik açığı yaratabilir

Araştırmacılar, simetri özelliklerini koruyan kuantum makine öğrenme modellerinin adversarial saldırılara karşı nasıl davrandığını inceledi. Rotasyonel eşdeğişkenlik özelliği olan kuantum modellerde yapılan çalışmada, simetrinin tek başına güvenlik garantisi sağlamadığı ortaya çıktı. Modellerin sadece simetri-değişmez bilgilere erişebilmesi, aynı zamanda onları belirli saldırı türlerine karşı savunmasız bırakıyor. Bu bulgular, kuantum makine öğrenme sistemlerinin güvenlik açıklarını anlamak ve daha dayanıklı modeller geliştirmek açısından önem taşıyor.

arXiv — Kuantum Fiziği 0
Teknoloji & Yapay Zeka
20 Apr

TwoHamsters: Yapay Zeka Görsel Üreticilerindeki Gizli Güvenlik Açığı Keşfedildi

Araştırmacılar, metin-görsel yapay zeka modellerinde yeni bir güvenlik zaafiyeti tespit etti. 'Çok Kavramlı Kompozisyonel Güvensizlik' adı verilen bu sorun, tek başına zararsız görünen kelimelerin bir araya geldiğinde sakıncalı içerikler üretebilmesini ifade ediyor. TwoHamsters adlı kapsamlı test platformu kullanılarak yapılan değerlendirmede, FLUX dahil güncel modellerin bu tür gizli risklere karşı savunmasız olduğu ortaya çıktı. 17.500 test istemi içeren benchmark, mevcut güvenlik önlemlerinin yetersizliğini gözler önüne serdi. Bu keşif, yapay zeka güvenlik sistemlerinin sadece açık tehditlerle değil, kavramların dolaylı birleşimlerinin yaratabileceği risklerle de mücadele etmesi gerektiğini gösteriyor. Bulgular, geliştiricilerin daha sofistike güvenlik mekanizmaları geliştirmesi için önemli veriler sunuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

ProcRoute: VPN'lerde Uygulama Bazlı Güvenlik Devrim

Araştırmacılar, kurumsal VPN ve sıfır güven ağ erişimi (ZTNA) sistemlerindeki kritik bir güvenlik açığını kapatacak yeni bir sistem geliştirdi. Mevcut split-tunnel VPN yapılandırmalarında, dahili ağ rotaları tüm cihaza erişim yetkisi veriyor ve kötü niyetli yazılımlar bu rotaları kötüye kullanabiliyor. ProcRoute adlı yeni sistem, sadece yetkili uygulamaların dahili ağ kaynaklarına erişmesine izin veriyor. Sistem, Linux'ta cgroup v2 ve eBPF teknolojilerini kullanarak her ağ bağlantısını denetliyor. WireGuard VPN ile yapılan testlerde sistemin başarıyla çalıştığı görüldü. Bu geliştirme, uzaktan çalışma döneminde artan VPN kullanımıyla birlikte daha da önemli hale gelen kurumsal ağ güvenliğine yeni bir boyut getiriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Apple Intelligence'ta Kritik Güvenlik Açığı: Serpent Saldırısı Token Hırsızlığına Yol Açıyor

Güvenlik araştırmacıları, Apple Intelligence'ın güvenlik sisteminde ciddi bir açık keşfetti. 'Serpent' adı verilen bu saldırı yöntemi, kullanıcıların cihazlarından erişim tokenlarını çalarak bunları farklı cihazlarda kullanmayı mümkün kılıyor. Apple'ın yapay zeka hizmeti, anonim erişim tokenleri kullanarak iki aşamalı güvenlik sistemiyle kullanıcı gizliliğini korumayı hedefliyordu. Ancak araştırma, bu koruma mekanizmasının traffic analizi, tersine mühendislik ve Apple'ın resmi belgelerinin karşılaştırılması yoluyla aşılabileceğini gösteriyor. En güncel macOS 26 Tahoe sürümünde bile başarılı saldırılar gerçekleştirilen bu keşif, yapay zeka hizmetlerinin güvenlik mimarilerinde köklü revizyonlara ihtiyaç olduğunu ortaya koyuyor. Çalıntı tokenlar, mağdurun kullanım limitlerini tüketerek ek zararlara yol açabiliyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yazılım güvenlik taramalarındaki %92 yanlış alarm oranının sırrı çözüldü

Yazılım tedarik zinciri güvenliğinde kritik öneme sahip SBOM (Yazılım Malzeme Listesi) araçlarının etkinliği, ciddi doğruluk sorunları nedeniyle sorgulanıyor. 2.414 açık kaynak kod deposu üzerinde yapılan kapsamlı araştırma, güvenlik tarayıcılarının şaşırtıcı derecede yüksek yanlış pozitif oranlarla çalıştığını ortaya koyuyor. Çalışma, güçlü paket yöneticileri kullanılarak doğru SBOM'lar oluşturulabileceğini gösteriyor ancak asıl sorunun güvenlik tarayıcılarında olduğunu belirtiyor. Araştırmacılar, erişilemeyen kod parçalarındaki güvenlik açıklarının işaretlenmesinin ana neden olduğunu tespit ederek, fonksiyon çağrı analizi ile bu sorunun büyük ölçüde çözülebileceğini kanıtlıyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Güvenliğinde Yeni Tehdit: Akıl Yürütme Korsanlığı Keşfedildi

Araştırmacılar, büyük dil modellerinde (LLM) şimdiye kadar göz ardı edilen kritik bir güvenlik açığını ortaya çıkardı. 'Akıl Yürütme Korsanlığı' adı verilen bu yeni saldırı türü, yapay zekanın ana görevini değiştirmeden karar verme mantığını manipüle ediyor. Geleneksel güvenlik önlemlerinin hedef değiştirme saldırılarına odaklandığını belirten bilim insanları, bu yeni yaklaşımın modellerin karar alma kriterlerini gizlice değiştirerek yanlış sonuçlara ulaşmasına neden olabileceğini gösterdi. Bulgular, mevcut yapay zeka güvenlik stratejilerinin yetersiz olduğunu ve daha kapsamlı koruma mekanizmalarına ihtiyaç duyulduğunu ortaya koyuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Gizli Kapı Sistemlerinde Güvenlik Açığı: SAT Algoritması ile İşlev Çözümleme

Araştırmacılar, hem veri hem de işlev mantığını korumayı hedefleyen yarı-özel işlev değerlendirme sistemlerinde kritik bir güvenlik açığı keşfetti. Gate-hiding garbled circuits adı verilen bu sistemler, kapı işlevlerini gizlerken devre topolojisini açık bırakıyor. Yeni geliştirilen SAT tabanlı saldırı yöntemi, sadece devrenin genel yapısını kullanarak gizli kapı operasyonlarını yeniden oluşturabiliyor. Bu keşif, kriptografik hesaplama sistemlerinin güvenlik tanımlarının yeniden gözden geçirilmesi gerektiğini ortaya koyuyor ve siber güvenlik alanında önemli etkilere sahip.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Siber güvenlik testlerinde yapay zeka ajanlarının sağlamlığı ölçüldü

Araştırmacılar, büyük dil modellerinin siber güvenlik görevlerindeki performansını daha etkili şekilde değerlendirmek için yeni bir yöntem geliştirdi. Geleneksel testlerin aksine, bu yaklaşım aynı güvenlik açığını farklı kod versiyonlarında test ederek yapay zeka ajanlarının ne kadar sağlam olduğunu ölçüyor. Evolve-CTF adlı araç, Python tabanlı siber güvenlik zorluklarından semantik olarak eşdeğer alternatifler üretiyor. 13 farklı yapay zeka modelinin test edildiği çalışmada, modellerin değişken adı değişikliklerine ve kod eklemelerine oldukça dayanıklı olduğu, ancak daha karmaşık dönüşümler ve kod gizleme teknikleri karşısında performanslarının düştüğü görüldü.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Büyük AI modellerin düşünme süreçleri manipüle edilebiliyor

Araştırmacılar, gelişmiş yapay zeka modellerinin adım adım mantık yürütme süreçlerine zararlı içerik enjekte edebilen yeni bir saldırı yöntemi keşfetti. Bu saldırılar, modelin nihai cevabını değiştirmeden, düşünme aşamalarına tehlikeli bilgiler yerleştiriyor. Sağlık ve eğitim gibi kritik alanlarda kullanılan bu sistemlerin güvenlik açığı, psikolojik çerçeveleme teknikleri kullanılarak istismar ediliyor. Çalışma, AI güvenliğinin sadece son yanıtlara değil, tüm düşünme sürecine odaklanması gerektiğini ortaya koyuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Görüş Sistemlerine Yeni Saldırı Yöntemi: Kırışıklıklarla Aldatma

Araştırmacılar, görsel-dil modellerinin (VLM) güvenlik açığını ortaya çıkaran yeni bir saldırı yöntemi geliştirdi. Bu yöntem, kumaş kırışıklıklarının fiziğinden ilham alarak, yüzeylerde oluşturulan gerçekçi deformasyonlarla yapay zeka sistemlerini yanıltabiliyor. Çalışma, günümüzde görüntü tanıma, açıklama oluşturma ve görsel soru-cevap gibi alanlarda kullanılan VLM'lerin, esnek yüzeylerdeki kırışıklık gibi fiziksel değişimlere karşı ne kadar savunmasız olduğunu gösteriyor. Geliştirilen parametrik pertürbasyon yöntemi, çok ölçekli kırışıklık alanları oluşturarak fotorealistik görüntü bozulmaları yaratıyor. Bu keşif, yapay zeka güvenliği açısından önemli çünkü gerçek dünyada kolayca uygulanabilir saldırıların mümkün olduğunu ortaya koyuyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
20 Apr

Yapay Zeka Asistanları Zararsız Talimatlarda Bile Güvenlik Açığı Gösteriyor

Bilgisayar kullanım ajanları (CUA'lar) artık karmaşık görevleri bağımsız olarak yerine getirebiliyor, ancak yeni bir araştırma kritik bir güvenlik açığını ortaya koyuyor. Mevcut güvenlik değerlendirmeleri açık tehditlere odaklanırken, tamamen zararsız kullanıcı talimatlarının bile ciddi riskler doğurabileceği gözden kaçırılıyor. Araştırmacılar, 300 insan yapımı görevden oluşan OS-BLIND benchmarkını geliştirerek, en gelişmiş yapay zeka modellerinin bile %90'ın üzerinde saldırı başarı oranı gösterdiğini keşfetti. Güvenlik odaklı Claude 4.5 Sonnet bile %73 oranında zafiyet sergiledi. Bu durum, yapay zeka asistanlarının güvenlik mekanizmalarının yeniden gözden geçirilmesi gerektiğini gösteriyor.

arXiv (CS + AI) 0
Teknoloji & Yapay Zeka
18 Apr

Şifreli İnternette Cihaz Kimlik Tespiti: Yeni AI Modeli Güvenlik Açığını Ortaya Çıkardı

Araştırmacılar, şifreli internet trafiğinden cihaz kimliklerini tespit edebilen CONTEX-T adlı yeni bir yapay zeka sistemi geliştirdi. Bu sistem, mesaj içeriğini okuyamasa bile, paket verilerinin zaman ve frekans analizini yaparak hangi cihazın iletişim kurduğunu belirleyebiliyor. IoT cihazlarının yaygınlaşmasıyla birlikte bu durum, şifrelemenin bile tam güvenlik sağlayamadığını gösteriyor. Çalışma, mevcut güvenlik önlemlerinin yeterli olmadığını ve yeni koruma stratejilerine ihtiyaç olduğunu ortaya koyuyor.

arXiv (CS + AI) 0