"havacılık güvenliği" için 464 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
464 haber
Yapay zeka ile atmosfer yoğunluğu tahmini: Uydu takibi daha hassas hale geliyor
Atmosferin üst katmanlarındaki yoğunluk değişimlerini doğru tahmin etmek, uydu yörüngelerinin belirlenmesi ve uzay durumsal farkındalığı için kritik öneme sahip. Araştırmacılar, termosferin karmaşık davranışını modellemek için fizik tabanlı yapay zeka yaklaşımı geliştirdi. SINDyc-AR adı verilen bu yöntem, geleneksel atmosfer modellerinin hesaplama maliyetini büyük ölçüde azaltırken doğruluğunu koruyor. Sistem, CHAMP, GRACE ve GOCE gibi uydulardan toplanan gerçek zamanlı yoğunluk verilerini kullanarak Kalman filtresi ile güncelleniyor. Bu gelişme, uzay çöplerinin takibi ve uydu çarpışma risklerinin hesaplanmasında devrim yaratabilir.
arXiv — Bilgisayar Sistemleri · 11 gün önce
0
Yapay zeka arkadaşlarının güvenliği büyük ölçekte test edildi
Araştırmacılar, duygusal bağ kurma amacıyla tasarlanan yapay zeka arkadaş uygulamalarının güvenlik risklerini değerlendirmek için yeni bir test sistemi geliştirdi. Bu sistem, depresyon, anksiyete ve travma sonrası stres bozukluğu gibi farklı psikolojik profillere sahip sanal kişilikler yaratarak, yapay zeka uygulamalarının bu risk gruplarındaki kişilerle nasıl etkileşim kurduğunu analiz ediyor. Popüler AI arkadaş uygulaması Replika üzerinde yapılan testlerde, 9 farklı kişilik profili ve 1.674 diyalog çifti kullanılarak kapsamlı bir güvenlik analizi gerçekleştirildi. Bu çalışma, kullanıcı güvenliğini gerçek zamanlı olarak değerlendiren ilk ölçeklenebilir çerçeveyi sunuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Modellerinin 'Bilinmeyen' Verilerle Başa Çıkma Sırrı Çözüldü
Araştırmacılar, büyük dil modellerinin alışık olmadığı verilerle karşılaştığında nasıl davrandığını anlamak için yeni bir çerçeve geliştirdi. Mevcut tespit yöntemlerinin aslında metin uzunluğundan etkilendiğini ve bu nedenle yanıltıcı sonuçlar verdiğini keşfettiler. Çalışma, modellerin iki farklı yoldan bilgiyi işlediğini ortaya koyuyor: embedding'ler metnin konusunu yakalarken, işleme yörüngesi modelin veriyi nasıl işlediğini gösteriyor. Bu bulgular, yapay zeka güvenliği ve modellerin güvenilirlik tespiti için önemli sonuçlar taşıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Çok Dilli AI Güvenliği İçin Yerel Kanunlara Dayalı Yeni Koruma Sistemi
Araştırmacılar, büyük dil modellerinin farklı ülkelerde güvenli kullanımını sağlamak için ML-Bench adlı yeni bir değerlendirme sistemi geliştirdi. 14 farklı dili kapsayan bu sistem, her bölgenin kendi yasal düzenlemelerini ve kültürel özelliklerini dikkate alarak AI güvenlik standartları oluşturuyor. Mevcut sistemlerin aksine, genel risk kategorileri yerine ülkeye özgü kanun metinlerinden doğrudan yararlanıyor. Bu yaklaşım, AI modellerinin küresel kullanımında karşılaşılan yasal ve kültürel uyumsuzluk sorunlarına çözüm getiriyor. Sistem üzerinden geliştirilen ML-Guard koruma modeli, bölgesel düzenlemelere uygun şekilde zararlı içerikleri tespit edip engelleyebiliyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Finans Güvenlik Testi: Finansal Suçları Teşvik Eden Zafiyetler Keşfedildi
Araştırmacılar, büyük dil modellerinin finansal senaryolardaki güvenlik açıklarını değerlendirmek için FinSafetyBench adlı yeni bir test sistemi geliştirdi. Bu iki dilli (İngilizce-Çince) değerlendirme platformu, yapay zeka modellerinin finansal uyum kurallarını ihlal eden talepleri reddetme kapasitesini ölçüyor. Gerçek finansal suç vakalarına dayanan test, 14 farklı kategoriyi kapsıyor ve hem genel amaçlı hem de finansa özel yapay zeka modellerinde kritik güvenlik boşlukları tespit etti. Özellikle Çince bağlamlarda modellerin daha savunmasız olduğu ve sofistike saldırılara karşı istem düzeyindeki savunmaların yetersiz kaldığı ortaya çıktı. Bu bulgular, finansal sektörde kullanılan yapay zeka sistemlerinin güvenlik önlemlerinin güçlendirilmesi gerektiğini gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Arama Sonuçları Nasıl Manipüle Ediliyor?
Araştırmacılar, büyük dil modellerinin (LLM) arama sonuçlarını özetlerken nasıl önyargılı davrandığını ve bu önyargıların nasıl manipüle edilebileceğini inceledi. Çalışma, web arama sistemlerinde kullanılan yapay zeka overview sistemlerinin hem kaynak seçiminde hem de cevap üretiminde önyargılardan etkilendiğini ortaya koyuyor. Araştırmacılar, reinforcement learning ile eğitilmiş küçük bir dil modeli kullanarak arama snippet'lerini yeniden yazarak, LLM'lerin bu içerikleri tercih etme olasılığını artırmayı başardı. Bu bulgular, yapay zeka destekli arama sistemlerinin güvenilirliği ve manipülasyona karşı direnci konusunda önemli sorular gündeme getiriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
DNA sentezi güvenliğinde devrim: Yeni sistem biyolojik tehditleri %100 yakalıyor
Bilim insanları, DNA sentezi siparişlerindeki potansiyel biyolojik tehditleri tespit etmek için yeni bir güvenlik sistemi geliştirdi. CRC-Screen adlı bu sistem, mevcut güvenlik protokollerinin büyük bir açığını kapatıyor. Geleneksel yöntemler, bilinen tehlikeli DNA dizilerini referans listelerle karşılaştırarak çalışır, ancak bu yaklaşım yeni veya bilinmeyen toksik organizmaların DNA dizileri karşısında yetersiz kalıyor. Araştırmacılar, yapay zeka destekli üç farklı analiz yöntemini birleştiren hibrit bir sistem tasarladı. Bu sistem, DNA dizilerinin k-mer benzerliklerini, beş farklı büyük dil modelinin değerlendirmelerini ve kümelenmiş veri yapılarındaki kosinüs benzerliklerini analiz ediyor. Test sonuçları, sistemin farklı taksonomik ailelerden gelen tehlikeli DNA dizilerini %100 başarıyla tespit ettiğini gösteriyor. Bu gelişme, biyogüvenlik alanında önemli bir adım olarak değerlendiriliyor.
arXiv (Biyoloji) · 11 gün önce
0
Yapay Zeka Modellerinin Eğitim Sonrası Gelişimi İçin Yeni Rehber Araştırma
Büyük dil modellerinin (LLM) temel eğitimden sonra zararlı çıktılar üretmesi ve matematik, kodlama gibi alanlarda yetersiz kalması önemli bir sorun teşkil ediyor. Araştırmacılar, bu sorunları çözmek için pekiştirmeli öğrenme tabanlı post-eğitim yöntemlerini geliştirdi. İnsan geri bildirimiyle pekiştirmeli öğrenme (RLHF) ve doğrulanabilir ödüllerle pekiştirmeli öğrenme (RLVR) gibi yaklaşımlar bu alanda kayda değer ilerlemeler sağladı. Yeni araştırma, bu farklı yöntemleri tek bir çerçevede birleştiren kapsamlı bir inceleme sunuyor. Çalışma, temel eğitim, denetimli ince ayar, RLHF ve RLVR yöntemlerini birleşik bir politika gradyanı çerçevesi altında topluyor. Bu yaklaşım, yapay zeka modellerinin güvenliği ve performansı açısından kritik öneme sahip.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Modellerinin 'Reddetme' Mekanizması Haritası Çıkarıldı
Araştırmacılar, büyük dil modellerinin zararlı içerikleri nasıl reddettiğini kontrol eden beyin devrelerini keşfetti. Çalışma, modellerin içindeki 'kapı' ve 'yükselteç' adı verilen dikkat başlıklarının, tehlikeli içerikleri tespit edip reddetme sinyali ürettiğini gösteriyor. 2 milyar ile 72 milyar parametreli 12 farklı modelde aynı mekanizma bulundu. En şaşırtıcı keşif, bu sistemin manipüle edilebilir olması: araştırmacılar sinyali ayarlayarak modelleri sert reddedici tavırdan zararlı içerik üreticisine dönüştürebildi. Bu bulgular, AI güvenliği ve model davranışlarının kontrolü açısından kritik önem taşıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Güvenliği için Yeni Çözüm: Ayrışık Güvenlik Adaptörleri
Araştırmacılar, yapay zeka sistemlerinin güvenliğini sağlamak için yenilikçi bir yaklaşım geliştirdi. Ayrışık Güvenlik Adaptörleri (DSA) adlı bu sistem, güvenlik kontrollerini ana modelden ayırarak hem verimlilik hem de esneklik sağlıyor. Geleneksel güvenlik yöntemleri ya performansı düşürüyor ya da geliştirme sürecini kısıtlıyordu. DSA ise nefret söylemi tespiti, zararlı içerik engelleme ve halüsinasyon önleme gibi alanlarda %53'e varan iyileşmeler göstererek bu sorunu çözüyor. Sistem, minimal hesaplama maliyetiyle çalışırken, kullanıcıların güvenlik seviyesini anlık olarak ayarlamasına da olanak tanıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Güvenlik Testleri Neden Yetersiz Kalıyor?
Yeni bir araştırma, mevcut yapay zeka güvenlik değerlendirmelerinin kritik bir eksikliği olduğunu ortaya koyuyor. Çin menşeli dil modellerinde siyasi sansür mekanizmalarını inceleyen bilim insanları, zararlı içerik tespitinin kolay olduğunu, ancak asıl sorunun bu bilgilerin davranışsal politikalara nasıl yönlendirildiğinde saklı olduğunu keşfetti. Beş farklı laboratuvardan dokuz açık kaynak model üzerinde yapılan deneyler, prob doğruluğunun tek başına yanıltıcı olabileceğini gösterdi. Araştırmacılar, siyasi hassasiyet yönünü kaldırdıklarında çoğu modelde sansürün ortadan kalktığını ve doğru bilgi üretiminin geri geldiğini gözlemledi. Ancak bir modelde bilgi mimarisi sansür mekanizmasıyla o kadar iç içe geçmişti ki, müdahale sonrası model gerçek dışı bilgiler üretmeye başladı. Bu bulgular, AI güvenlik testlerinin yeniden düşünülmesi gerektiğini işaret ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0