...
"güvenlik" için 521 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
521 haber
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Önyargıları: Görev Tanımı Nasıl Karar Vermeyi Etkiliyor?
Araştırmacılar, büyük dil modellerinin (LLM) görev tanımlarındaki ifadelerden nasıl önyargılı çıkarımlar yaptığını inceledi. Mahkumlar ikilemi oyunu üzerinden yapılan deneylerde, yapay zeka modellerinin mantıklı adımlar izleseler bile varsayımsal düşünce kalıplarına sıkışabildikleri görüldü. Ancak görev tanımı tarafsız bir dille yapıldığında, modeller daha objektif kararlar verebiliyor. Bu bulgular, yapay zekanın güvenli kullanımı için doğru görev tanımlarının kritik önemini ortaya koyuyor.
Teknoloji & Yapay Zeka
Çok Dilli AI Güvenliği İçin Yerel Kanunlara Dayalı Yeni Koruma Sistemi
Araştırmacılar, büyük dil modellerinin farklı ülkelerde güvenli kullanımını sağlamak için ML-Bench adlı yeni bir değerlendirme sistemi geliştirdi. 14 farklı dili kapsayan bu sistem, her bölgenin kendi yasal düzenlemelerini ve kültürel özelliklerini dikkate alarak AI güvenlik standartları oluşturuyor. Mevcut sistemlerin aksine, genel risk kategorileri yerine ülkeye özgü kanun metinlerinden doğrudan yararlanıyor. Bu yaklaşım, AI modellerinin küresel kullanımında karşılaşılan yasal ve kültürel uyumsuzluk sorunlarına çözüm getiriyor. Sistem üzerinden geliştirilen ML-Guard koruma modeli, bölgesel düzenlemelere uygun şekilde zararlı içerikleri tespit edip engelleyebiliyor.
Teknoloji & Yapay Zeka
Yapay Zeka Finans Güvenlik Testi: Finansal Suçları Teşvik Eden Zafiyetler Keşfedildi
Araştırmacılar, büyük dil modellerinin finansal senaryolardaki güvenlik açıklarını değerlendirmek için FinSafetyBench adlı yeni bir test sistemi geliştirdi. Bu iki dilli (İngilizce-Çince) değerlendirme platformu, yapay zeka modellerinin finansal uyum kurallarını ihlal eden talepleri reddetme kapasitesini ölçüyor. Gerçek finansal suç vakalarına dayanan test, 14 farklı kategoriyi kapsıyor ve hem genel amaçlı hem de finansa özel yapay zeka modellerinde kritik güvenlik boşlukları tespit etti. Özellikle Çince bağlamlarda modellerin daha savunmasız olduğu ve sofistike saldırılara karşı istem düzeyindeki savunmaların yetersiz kaldığı ortaya çıktı. Bu bulgular, finansal sektörde kullanılan yapay zeka sistemlerinin güvenlik önlemlerinin güçlendirilmesi gerektiğini gösteriyor.
Teknoloji & Yapay Zeka
Sahte Ses Tespiti İçin Yeni Yapay Zeka Modeli: Alethia
Araştırmacılar, deepfake ses kayıtlarını tespit etmek için özel olarak tasarlanmış yeni bir yapay zeka modeli olan Alethia'yı geliştirdi. Mevcut yöntemlerin sınırlarına ulaştığı bir dönemde, bu model farklı bir yaklaşım benimsiyor. Alethia, maskelenmiş gömülü tahmin ve spektogram yeniden yapılandırma tekniklerini birleştiren yenilikçi bir eğitim reçetesi kullanıyor. 56 farklı veri seti üzerinde yapılan testlerde, model mevcut teknolojileri geride bırakarak üstün performans sergiledi. Özellikle gerçek dünya koşullarındaki bozulmalara karşı dayanıklılığı ve daha önce görmediği alanlardaki başarısı dikkat çekici. Model, şarkı deepfake'leri gibi yeni türdeki sahte ses içeriklerini bile başarıyla tespit edebiliyor.
Teknoloji & Yapay Zeka
Yapay Zeka Metinlerini Güvenilir Şekilde İmzalayan Yeni Yöntem Geliştirildi
Büyük dil modellerinin ürettiği metinlerin kaynağını tespit etmek giderek zorlaşırken, araştırmacılar BREW adlı yeni bir dijital imza yöntemi geliştirdi. Bu sistem, yapay zeka tarafından üretilen metinlere görünmez çoklu bit imzalar yerleştirerek, sahte pozitif sonuçları dramatik şekilde azaltıyor. Geleneksel yöntemlerin aksine, BREW iki aşamalı bir doğrulama mekanizması kullanıyor: önce bağımsız blok oylamasıyla mesajı tahmin ediyor, ardından pencere kaydırma tekniğiyle yerel düzenlemelere karşı sağlam doğrulama yapıyor. Test sonuçları, %10 eş anlamlı kelime değişikliği altında bile %96.5 doğru tespit oranı ve sadece %2 yanlış pozitif oranı gösteriyor.
Biyoloji & Yaşam Bilimleri
DNA sentezi güvenliğinde devrim: Yeni sistem biyolojik tehditleri %100 yakalıyor
Bilim insanları, DNA sentezi siparişlerindeki potansiyel biyolojik tehditleri tespit etmek için yeni bir güvenlik sistemi geliştirdi. CRC-Screen adlı bu sistem, mevcut güvenlik protokollerinin büyük bir açığını kapatıyor. Geleneksel yöntemler, bilinen tehlikeli DNA dizilerini referans listelerle karşılaştırarak çalışır, ancak bu yaklaşım yeni veya bilinmeyen toksik organizmaların DNA dizileri karşısında yetersiz kalıyor. Araştırmacılar, yapay zeka destekli üç farklı analiz yöntemini birleştiren hibrit bir sistem tasarladı. Bu sistem, DNA dizilerinin k-mer benzerliklerini, beş farklı büyük dil modelinin değerlendirmelerini ve kümelenmiş veri yapılarındaki kosinüs benzerliklerini analiz ediyor. Test sonuçları, sistemin farklı taksonomik ailelerden gelen tehlikeli DNA dizilerini %100 başarıyla tespit ettiğini gösteriyor. Bu gelişme, biyogüvenlik alanında önemli bir adım olarak değerlendiriliyor.
Teknoloji & Yapay Zeka
Tıbbi AI Chatbotlarda Kritik Güvenlik Açıkları Tespit Edildi
Araştırmacılar, hasta-odaklı tıbbi AI chatbotlarda ciddi güvenlik ve gizlilik açıklarının bulunduğunu ortaya çıkardı. Retrieval-augmented generation (RAG) teknolojisi kullanan bu chatbotlarda yapılan güvenlik değerlendirmesi, hassas sistem bilgilerinin ve hasta verilerinin ifşa olabileceğini gösterdi. Çalışma, AI destekli geliştirme araçlarının bu tür uygulamaları oluşturmayı kolaylaştırsa da, sağlık alanında güvenli yapay zeka dağıtımı için sıkı güvenlik ve yönetişim kontrollerinin kritik önemini vurguluyor. Bu bulgular, tıbbi AI sistemlerinin klinik kullanıma hazırlanmasında güvenlik protokollerinin ihmal edilmemesi gerektiğini ortaya koyuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliği için Yeni Çözüm: Ayrışık Güvenlik Adaptörleri
Araştırmacılar, yapay zeka sistemlerinin güvenliğini sağlamak için yenilikçi bir yaklaşım geliştirdi. Ayrışık Güvenlik Adaptörleri (DSA) adlı bu sistem, güvenlik kontrollerini ana modelden ayırarak hem verimlilik hem de esneklik sağlıyor. Geleneksel güvenlik yöntemleri ya performansı düşürüyor ya da geliştirme sürecini kısıtlıyordu. DSA ise nefret söylemi tespiti, zararlı içerik engelleme ve halüsinasyon önleme gibi alanlarda %53'e varan iyileşmeler göstererek bu sorunu çözüyor. Sistem, minimal hesaplama maliyetiyle çalışırken, kullanıcıların güvenlik seviyesini anlık olarak ayarlamasına da olanak tanıyor.
Teknoloji & Yapay Zeka
Siber Tehdit Avcılığında Yapay Zeka Ajanlarını Test Eden Yeni Ölçüt: ExCyTIn-Bench
Araştırmacılar, büyük dil modellerinin siber güvenlik alanındaki performansını değerlendirmek için ExCyTIn-Bench adlı ilk kapsamlı test setini geliştirdi. Bu yenilikçi araç, gerçek güvenlik analistlerinin karmaşık siber tehditleri araştırma sürecini taklit ederek yapay zeka ajanlarının yeteneklerini ölçüyor. Microsoft Sentinel'den elde edilen 57 farklı log tablosunu içeren kontrollü bir Azure ortamında, 7542 özel soru ile test ediliyor. Sistem, uzman güvenlik analistlerinin mantığını kullanarak tehdit araştırma grafikleri oluşturuyor ve bu grafikler üzerinden yapay zeka ajanlarının çok aşamalı kanıt zincirlerini takip etme yeteneğini değerlendiriyor. Bu gelişme, siber güvenlik alanında otomatik tehdit araştırması yapabilen yapay zeka sistemlerinin geliştirilmesi için kritik bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenlik Testleri Neden Yetersiz Kalıyor?
Yeni bir araştırma, mevcut yapay zeka güvenlik değerlendirmelerinin kritik bir eksikliği olduğunu ortaya koyuyor. Çin menşeli dil modellerinde siyasi sansür mekanizmalarını inceleyen bilim insanları, zararlı içerik tespitinin kolay olduğunu, ancak asıl sorunun bu bilgilerin davranışsal politikalara nasıl yönlendirildiğinde saklı olduğunu keşfetti. Beş farklı laboratuvardan dokuz açık kaynak model üzerinde yapılan deneyler, prob doğruluğunun tek başına yanıltıcı olabileceğini gösterdi. Araştırmacılar, siyasi hassasiyet yönünü kaldırdıklarında çoğu modelde sansürün ortadan kalktığını ve doğru bilgi üretiminin geri geldiğini gözlemledi. Ancak bir modelde bilgi mimarisi sansür mekanizmasıyla o kadar iç içe geçmişti ki, müdahale sonrası model gerçek dışı bilgiler üretmeye başladı. Bu bulgular, AI güvenlik testlerinin yeniden düşünülmesi gerektiğini işaret ediyor.
Fizik
Kuantum Bilgisayarlarda Güvenlik Açığı: Devreler Birbirini Etkiliyor
IBM'in kuantum işlemcilerinde yapılan yeni araştırma, bulut tabanlı kuantum bilgisayarlarda ciddi güvenlik sorunları ortaya çıkardı. Araştırmacılar, aynı anda çalışan kuantum devrelerinin birbirini etkileyerek veri güvenliğini tehdit ettiğini keşfetti. Yedi farklı IBM işlemcisinde test edilen beş temel kuantum algoritması, tahmin edilebilir girişim desenleri gösterdi. Bu bulgular, kuantum bulut bilişimde çoklu kullanıcı sistemlerinin güvenliğine dair önemli sorular ortaya koyuyor. Özellikle Grover Algoritması gibi 'agresif' devrelerin diğer kullanıcıların işlemlerini önemli ölçüde etkileyebildiği görüldü. Kuantum bilgisayarların ticari kullanımının artmasıyla birlikte bu güvenlik açıklarının kapatılması kritik önem kazanıyor.