"havacılık güvenliği" için 464 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
464 haber
Göğüs BT Taramalarında Yapay Zeka Performansı Yanıltıcı Çıktı
Yapay zeka sistemlerinin göğüs tomografisi görüntülerini analiz etme başarısı, gerçekte olduğundan çok daha yüksek görünüyor. Araştırmacılar, mevcut test yöntemlerinin ciddi bir hata içerdiğini keşfetti. Eğitim ve test verilerinde aynı hastalardan alınan görüntülerin karışması, yapay zekanın performansını olduğundan 3 kat daha iyi gösteriyor. Yeni geliştirilen CTSCAN kıyaslama sistemi bu sorunu çözmeyi hedefliyor. Doğru test yöntemleri uygulandığında, yapay zeka sistemlerinin başarı oranı %66'dan %20'ye düşüyor. Bu bulgular, tıp alanında yapay zeka sistemlerinin güvenilirliği konusunda önemli sorular ortaya çıkarıyor ve daha titiz test protokollerine ihtiyaç olduğunu gösteriyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Görüş Sistemlerine Yeni Saldırı Yöntemi: Kırışıklıklarla Aldatma
Araştırmacılar, görsel-dil modellerinin (VLM) güvenlik açığını ortaya çıkaran yeni bir saldırı yöntemi geliştirdi. Bu yöntem, kumaş kırışıklıklarının fiziğinden ilham alarak, yüzeylerde oluşturulan gerçekçi deformasyonlarla yapay zeka sistemlerini yanıltabiliyor. Çalışma, günümüzde görüntü tanıma, açıklama oluşturma ve görsel soru-cevap gibi alanlarda kullanılan VLM'lerin, esnek yüzeylerdeki kırışıklık gibi fiziksel değişimlere karşı ne kadar savunmasız olduğunu gösteriyor. Geliştirilen parametrik pertürbasyon yöntemi, çok ölçekli kırışıklık alanları oluşturarak fotorealistik görüntü bozulmaları yaratıyor. Bu keşif, yapay zeka güvenliği açısından önemli çünkü gerçek dünyada kolayca uygulanabilir saldırıların mümkün olduğunu ortaya koyuyor.
arXiv (CS + AI) · 25 gün önce
0
Büyük Dil Modellerinde Güvenlik: Eğitimsiz Yöntemler Mercek Altında
Yapay zeka alanında büyük dil modelleri (LLM) giderek yaygınlaşırken, güvenlik endişeleri de artıyor. Bu modeller zararlı içerik üretme, önyargılı yaklaşımlar sergileme ve siber saldırılara karşı kırılgan olma gibi riskler taşıyor. Son dönemde, bu sorunları çözmek için eğitim gerektirmeyen yöntemler geliştirildi. Ancak bu yaklaşımların etkinliği tutarsız şekilde değerlendiriliyor ve beklenmedik yan etkileri bulunuyor. Yeni araştırma, mevcut eğitimsiz güvenlik yöntemlerinin kapsamlı bir analizini sunarak, bu tekniklerin gerçek performansını ortaya koyuyor. Çalışma, hem güvenlik hem de kullanılabilirlik açısından dengeli bir değerlendirme yaparak, yapay zeka güvenliği alanına önemli katkılar sağlıyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Artık Trafik Kazası Diyagramları Çizebiliyor
Araştırmacılar, polis kaza raporlarından otomatik olarak trafik kazası diyagramları oluşturabilen yapay zeka sistemleri geliştirdi. Görsel-dil modelleri kullanılan çalışmada, özellikle karmaşık kavşak türleri olan çok şeritli dönel kavşaklardaki kazalar test edildi. GPT-4o, Gemini ve Janus modellerinin karşılaştırıldığı araştırmada, yapay zekanın metinsel kaza raporlarını analiz ederek doğru ve anlaşılır görsel diyagramlar üretebileceği kanıtlandı. Bu teknoloji, şu anda manuel olarak hazırlanan ve zaman alıcı olan kaza diyagramı süreçlerini hızlandırabilir. Trafik güvenliği analizlerinde kritik rol oynayan bu diyagramların otomatik üretimi, hem insan hatasını azaltacak hem de ulaştırma güvenliği çalışmalarını daha verimli hale getirecek.
arXiv (CS + AI) · 25 gün önce
0
İnteraktif Öğrenme Geleneksel Yöntemleri Geride Bıraktı
Üniversite öğrencileri üzerinde yapılan kapsamlı bir araştırma, interaktif öğrenme araçlarının geleneksel ders anlatım yöntemlerinden çok daha etkili olduğunu ortaya koydu. Kahoot, Quizizz gibi dijital platformların kullanıldığı interaktif grupta öğrenciler hem akademik başarıda hem de duygusal refah düzeyinde belirgin iyileşmeler gösterdi. Bilgisayar güvenliği dersi alan 100 üniversite öğrencisi ile gerçekleştirilen çalışmada, interaktif yöntemlerle eğitim alan öğrenciler final sınavında %80,8 başarı oranına ulaşırken, geleneksel yöntemle eğitim alanlar %61,4'te kaldı. Araştırma, modern eğitim teknolojilerinin sadece öğrenmeyi kolaylaştırmakla kalmayıp aynı zamanda öğrenci motivasyonunu ve duygusal sağlığını da olumlu etkilediğini gösteriyor.
arXiv (CS + AI) · 25 gün önce
0
Kablosuz Haberleşmede Gizlilik Sorunu: Kötü Niyetli Sensörler Nasıl Engellenebilir?
Entegre algılama ve haberleşme sistemleri, iletişim güvenliği sağlansa bile yeni gizlilik riskleri yaratıyor. Araştırmacılar, kötü niyetli sensörlerin radio dalgalarını kullanarak verici hakkında yetkisiz bilgi toplamasını engellemeye yönelik yeni bir framework geliştirdi. Sistem, yapay gürültü ve akıllı yansıtıcı yüzeyler kullanarak vericinin kimliğini ve konumunu korumayı hedefliyor. Bu teknoloji, özellikle hassas alanlarda çalışan kablosuz sistemlerin güvenliğini artırabilir.
arXiv (CS + AI) · 25 gün önce
0
Kuantum Işınlama Artık Kuantum Bilgisayarlara Karşı Korunabilir
Araştırmacılar, kuantum ışınlama teknolojisini gelecekteki kuantum bilgisayar saldırılarına karşı koruyacak yeni bir güvenlik çerçevesi geliştirdi. Kuantum-dirençli kuantum ışınlama (QRQT) adı verilen bu sistem, post-kuantum kriptografi kullanarak klasik düzeltme kanalını güvenli hale getiriyor. Araştırma, kuantum belleğin fiziksel ve hesaplama güvenliği arasında kritik bir bağlantı oluşturduğunu ortaya koyuyor. Sistem, fiber optik kablolar üzerinden maksimum 191-199 km mesafeye güvenli kuantum ışınlama yapabiliyor. Bu teknoloji, kuantum internet altyapısının güvenliği için önemli bir adım teşkil ediyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay zeka görsellerinden istenmeyen içerik silmek için yeni yöntem geliştirildi
Metinden görsel üreten yapay zeka modelleri bazen zararlı veya istenmeyen içerik üretebiliyor. Araştırmacılar, bu modelllerden belirli kavramları hassas bir şekilde silmek için TICoE adlı yeni bir sistem geliştirdi. Bu sistem metin ve görsel verilerini birlikte kullanarak, istenmeyen kavramları silerken diğer içerikleri korumayı başarıyor. Geleneksel yöntemler ya kavramları tam olarak silemiyordu ya da ilgisiz içerikleri de zarar veriyordu. TICoE, sürekli dışbükey kavram manifoldu ve hiyerarşik görsel öğrenme kullanarak bu sorunu çözüyor. Sistem, hedef kavramları hassas bir şekilde kaldırırken, ilgisiz anlamsal ve görsel içerikleri koruyor. Araştırmacılar ayrıca silme işleminin kalitesini değerlendirmek için yeni bir strateji de geliştirdi. Yapılan deneyler, TICoE'nin önceki yöntemlerden daha başarılı olduğunu gösteriyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Artık Trafik Kazalarını Önceden Görebiliyor
Araştırmacılar, araç kamerası görüntülerini analiz ederek trafik kazalarını önceden tahmin edebilen VAGNet adlı yapay zeka sistemi geliştirdi. Geleneksel yöntemlerden farklı olarak, her nesneyi ayrı ayrı incelemek yerine trafik sahnesinin genel özelliklerini değerlendiren bu sistem, hem daha hızlı çalışıyor hem de daha az hesaplama gücü gerektiriyor. Dünya genelinde milyonlarca can kaybına neden olan trafik kazalarının önlenmesinde devrimsel bir adım olan bu teknoloji, sürücü uyarı sistemlerinden otonom araçlara kadar geniş bir uygulama alanına sahip. Sistem, tehlikeli durumları zamanında tespit ederek sürücüleri uyarabilir veya araçların otomatik güvenlik manevralarını başlatabilir.
arXiv (CS + AI) · 25 gün önce
0
Ultra düşük güçlü IoT ağları için yeni güvenlik protokolü geliştirildi
Bilim insanları, nesnelerin interneti (IoT) cihazları için devrim niteliğinde bir güvenlik çözümü geliştirdi. Bu yenilik, SWIPT (Simultaneous Wireless Information and Power Transfer) teknolojisini kullanan IoT ağlarında güvenliği artırırken enerji tüketimini minimal düzeyde tutuyor. Backscatter tabanlı kimlik doğrulama mekanizması sayesinde, cihazlar geleneksel RF alıcı-vericilerini aktif hale getirmeden güvenli iletişim kurabilmekte. Araştırmacılar, protokolden bağımsız çalışan bu çözümün minimal donanım değişikliği gerektirdiğini ve mevcut LoRaWAN şifrelemesindeki güvenlik açıklarını giderdiğini gösterdi. Pil gerektirmeyen sensör düğümlerinde test edilen sistem, özellikle enerji kısıtlı ortamlarda çalışan IoT cihazları için büyük önem taşıyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Asistanları Zararsız Talimatlarda Bile Güvenlik Açığı Gösteriyor
Bilgisayar kullanım ajanları (CUA'lar) artık karmaşık görevleri bağımsız olarak yerine getirebiliyor, ancak yeni bir araştırma kritik bir güvenlik açığını ortaya koyuyor. Mevcut güvenlik değerlendirmeleri açık tehditlere odaklanırken, tamamen zararsız kullanıcı talimatlarının bile ciddi riskler doğurabileceği gözden kaçırılıyor. Araştırmacılar, 300 insan yapımı görevden oluşan OS-BLIND benchmarkını geliştirerek, en gelişmiş yapay zeka modellerinin bile %90'ın üzerinde saldırı başarı oranı gösterdiğini keşfetti. Güvenlik odaklı Claude 4.5 Sonnet bile %73 oranında zafiyet sergiledi. Bu durum, yapay zeka asistanlarının güvenlik mekanizmalarının yeniden gözden geçirilmesi gerektiğini gösteriyor.
arXiv (CS + AI) · 25 gün önce
0