"güvenlik açığı" için 547 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
547 haber
Kablosuz Ağlarda Güvenli Veri Aktarımı İçin Yeni Hibrit Model
Araştırmacılar, kablosuz ağlarda hem doğru veri aktarımını hem de dinlemeye karşı güvenliği aynı anda sağlayan yeni bir model geliştirdi. Geleneksel yaklaşımlar bu iki hedefi ayrı ayrı ele alırken, yeni çalışma 'gizli yeniden yapılandırma doğruluğu' adlı hibrit bir metrik sunuyor. Bu yaklaşım, meşru alıcının veriye doğru şekilde erişebilmesi, aynı zamanda yetkisiz dinleyicilerin başarısız olması durumunu birlikte değerlendiriyor. Üç boyutlu durağan analiz ve kapalı form matematiksel ifadeler kullanılan çalışma, mevcut yöntemlerin optimal politikaları yanlış belirlediğini ve performansı hatalı tahmin ettiğini ortaya koyuyor.
arXiv — Bilgisayar Sistemleri · 10 gün önce
0
Elektrik Şebekelerinde Yeni Optimizasyon Yöntemi: IBP ile Hızlı Güvenlik Analizi
Araştırmacılar, elektrik şebekelerinin güvenli ve ekonomik işletimi için kritik öneme sahip güvenlik kısıtlı güç akış optimizasyonu problemlerini çözmek üzere yenilikçi bir yaklaşım geliştirdi. Yapay zeka doğrulama alanından ödünç alınan Interval Bound Propagation (IBP) tekniğini kullanan bu yöntem, binlerce güvenlik kısıtını içeren büyük sistemlerde bile hızlı sonuçlar üretiyor. Geleneksel ticari çözücülerin performansının sistem büyüklüğü ve acil durum senaryoları arttığında düştüğü durumlarda, yeni yaklaşım %3,98'in altında ortalama hata payıyla sertifikalı sınırlar hesaplayabiliyor. Bu gelişme, şebeke operatörlerinin daha büyük ve karmaşık sistemlerde bile güvenilir karar verebilmesini sağlayacak.
arXiv — Bilgisayar Sistemleri · 10 gün önce
0
Yapay zeka arkadaşlarının güvenliği büyük ölçekte test edildi
Araştırmacılar, duygusal bağ kurma amacıyla tasarlanan yapay zeka arkadaş uygulamalarının güvenlik risklerini değerlendirmek için yeni bir test sistemi geliştirdi. Bu sistem, depresyon, anksiyete ve travma sonrası stres bozukluğu gibi farklı psikolojik profillere sahip sanal kişilikler yaratarak, yapay zeka uygulamalarının bu risk gruplarındaki kişilerle nasıl etkileşim kurduğunu analiz ediyor. Popüler AI arkadaş uygulaması Replika üzerinde yapılan testlerde, 9 farklı kişilik profili ve 1.674 diyalog çifti kullanılarak kapsamlı bir güvenlik analizi gerçekleştirildi. Bu çalışma, kullanıcı güvenliğini gerçek zamanlı olarak değerlendiren ilk ölçeklenebilir çerçeveyi sunuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Yapay Zeka Modellerinin 'Bilinmeyen' Verilerle Başa Çıkma Sırrı Çözüldü
Araştırmacılar, büyük dil modellerinin alışık olmadığı verilerle karşılaştığında nasıl davrandığını anlamak için yeni bir çerçeve geliştirdi. Mevcut tespit yöntemlerinin aslında metin uzunluğundan etkilendiğini ve bu nedenle yanıltıcı sonuçlar verdiğini keşfettiler. Çalışma, modellerin iki farklı yoldan bilgiyi işlediğini ortaya koyuyor: embedding'ler metnin konusunu yakalarken, işleme yörüngesi modelin veriyi nasıl işlediğini gösteriyor. Bu bulgular, yapay zeka güvenliği ve modellerin güvenilirlik tespiti için önemli sonuçlar taşıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Yapay Zeka Güvenlik Sistemlerindeki Kritik Zayıflık Keşfedildi
Araştırmacılar, görsel-dil modellerinin güvenlik sınıflandırma sistemlerinde ciddi bir güvenilirlik sorunu ortaya çıkardı. Aynı anlama gelen farklı komut formülasyonları, yapay zekanın güvenli veya güvensiz içerik değerlendirmelerinde tutarsız sonuçlar ürettiğini gösterdi. Bu keşif, mevcut AI güvenlik sistemlerinin düşünülenden daha kırılgan olduğunu ve geliştirilmesi gerektiğini ortaya koyuyor. Çalışma, zero-shot vision-language modellerin tek komut tabanlı değerlendirmelerinin yanıltıcı olabileceğini ve çoklu komut ortalaması yaklaşımının daha güvenilir sonuçlar verdiğini kanıtladı.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Yapay Zeka Modelleri Artık Seçici Unutabilecek: TokenUnlearn Yöntemi
Araştırmacılar, büyük dil modellerinin belirli bilgileri daha hassas bir şekilde unutabilmesi için yenilikçi bir yöntem geliştirdi. TokenUnlearn adlı bu yaklaşım, tüm metin yerine yalnızca kritik kelimeleri hedef alarak modellerin istenmeyen bilgileri daha etkili şekilde silmesini sağlıyor. Mevcut yöntemler tüm metne aynı şekilde müdahale ederken, yeni sistem önemli ve önemsiz kelimeler arasında ayrım yapabiliyor. Bu gelişme, yapay zeka modellerinin gizlilik, güvenlik ve yasal düzenlemeler açısından daha uyumlu hale gelmesinde önemli bir adım olarak değerlendiriliyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Yapay Zeka Modellerinin Önyargıları: Görev Tanımı Nasıl Karar Vermeyi Etkiliyor?
Araştırmacılar, büyük dil modellerinin (LLM) görev tanımlarındaki ifadelerden nasıl önyargılı çıkarımlar yaptığını inceledi. Mahkumlar ikilemi oyunu üzerinden yapılan deneylerde, yapay zeka modellerinin mantıklı adımlar izleseler bile varsayımsal düşünce kalıplarına sıkışabildikleri görüldü. Ancak görev tanımı tarafsız bir dille yapıldığında, modeller daha objektif kararlar verebiliyor. Bu bulgular, yapay zekanın güvenli kullanımı için doğru görev tanımlarının kritik önemini ortaya koyuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Çok Dilli AI Güvenliği İçin Yerel Kanunlara Dayalı Yeni Koruma Sistemi
Araştırmacılar, büyük dil modellerinin farklı ülkelerde güvenli kullanımını sağlamak için ML-Bench adlı yeni bir değerlendirme sistemi geliştirdi. 14 farklı dili kapsayan bu sistem, her bölgenin kendi yasal düzenlemelerini ve kültürel özelliklerini dikkate alarak AI güvenlik standartları oluşturuyor. Mevcut sistemlerin aksine, genel risk kategorileri yerine ülkeye özgü kanun metinlerinden doğrudan yararlanıyor. Bu yaklaşım, AI modellerinin küresel kullanımında karşılaşılan yasal ve kültürel uyumsuzluk sorunlarına çözüm getiriyor. Sistem üzerinden geliştirilen ML-Guard koruma modeli, bölgesel düzenlemelere uygun şekilde zararlı içerikleri tespit edip engelleyebiliyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Yapay Zeka Finans Güvenlik Testi: Finansal Suçları Teşvik Eden Zafiyetler Keşfedildi
Araştırmacılar, büyük dil modellerinin finansal senaryolardaki güvenlik açıklarını değerlendirmek için FinSafetyBench adlı yeni bir test sistemi geliştirdi. Bu iki dilli (İngilizce-Çince) değerlendirme platformu, yapay zeka modellerinin finansal uyum kurallarını ihlal eden talepleri reddetme kapasitesini ölçüyor. Gerçek finansal suç vakalarına dayanan test, 14 farklı kategoriyi kapsıyor ve hem genel amaçlı hem de finansa özel yapay zeka modellerinde kritik güvenlik boşlukları tespit etti. Özellikle Çince bağlamlarda modellerin daha savunmasız olduğu ve sofistike saldırılara karşı istem düzeyindeki savunmaların yetersiz kaldığı ortaya çıktı. Bu bulgular, finansal sektörde kullanılan yapay zeka sistemlerinin güvenlik önlemlerinin güçlendirilmesi gerektiğini gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Sahte Ses Tespiti İçin Yeni Yapay Zeka Modeli: Alethia
Araştırmacılar, deepfake ses kayıtlarını tespit etmek için özel olarak tasarlanmış yeni bir yapay zeka modeli olan Alethia'yı geliştirdi. Mevcut yöntemlerin sınırlarına ulaştığı bir dönemde, bu model farklı bir yaklaşım benimsiyor. Alethia, maskelenmiş gömülü tahmin ve spektogram yeniden yapılandırma tekniklerini birleştiren yenilikçi bir eğitim reçetesi kullanıyor. 56 farklı veri seti üzerinde yapılan testlerde, model mevcut teknolojileri geride bırakarak üstün performans sergiledi. Özellikle gerçek dünya koşullarındaki bozulmalara karşı dayanıklılığı ve daha önce görmediği alanlardaki başarısı dikkat çekici. Model, şarkı deepfake'leri gibi yeni türdeki sahte ses içeriklerini bile başarıyla tespit edebiliyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Yapay Zeka Metinlerini Güvenilir Şekilde İmzalayan Yeni Yöntem Geliştirildi
Büyük dil modellerinin ürettiği metinlerin kaynağını tespit etmek giderek zorlaşırken, araştırmacılar BREW adlı yeni bir dijital imza yöntemi geliştirdi. Bu sistem, yapay zeka tarafından üretilen metinlere görünmez çoklu bit imzalar yerleştirerek, sahte pozitif sonuçları dramatik şekilde azaltıyor. Geleneksel yöntemlerin aksine, BREW iki aşamalı bir doğrulama mekanizması kullanıyor: önce bağımsız blok oylamasıyla mesajı tahmin ediyor, ardından pencere kaydırma tekniğiyle yerel düzenlemelere karşı sağlam doğrulama yapıyor. Test sonuçları, %10 eş anlamlı kelime değişikliği altında bile %96.5 doğru tespit oranı ve sadece %2 yanlış pozitif oranı gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0