"AI saldırıları" için 65 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
65 haber
Av Hayvanları Avcılardan Nasıl Kaçıyor? Cevap Reaksiyon Zamanında Saklı
Amsterdam Üniversitesi araştırmacıları, doğada avcıların çoğu saldırısının neden başarısız olduğunu araştırdı. Avcılar genellikle avlarından daha büyük, hızlı ve güçlü olmasına rağmen, saldırıların büyük kısmı başarısızlıkla sonuçlanıyor. Proceedings of the National Academy of Sciences dergisinde yayınlanan çalışma, bu durumun arkasındaki gizemi çözdü: reaksiyon zamanları. Araştırmacılar, daha önce gözden kaçan bu faktörün av-avcı dinamiklerini nasıl değiştirdiğini ortaya koydu. Bu keşif, doğadaki yaşam-ölüm mücadelesinde hayatta kalmanın sadece fiziksel yeteneklere değil, tepki verme hızına da bağlı olduğunu gösteriyor.
Phys.org — Biyoloji · 13 gün önce
0
Meşe ağaçları tırtılları kandırmak için yapraklarını geç açıyor
Bilim insanları, meşe ağaçlarının tırtıl saldırılarına karşı şaşırtıcı bir savunma stratejisi geliştirdiğini keşfetti. Yoğun tırtıl istilasına maruz kalan meşe ağaçları, ertesi yıl yapraklarını açma zamanlarını üç güne kadar erteleyebiliyor. Bu zekice strateji, yavrularını beslemek için genç yaprakları bekleyen tırtılları şaşırtıyor ve onları aç bırakıyor. Araştırma, bitkilerin çevresel tehditlere karşı ne kadar sofistike adaptasyon mekanizmaları geliştirebileceğini gösteren önemli bir örnek. Bu keşif, orman ekosistemleri ve bitki-böcek etkileşimlerinin karmaşıklığını anlamamıza yeni bir boyut kazandırıyor.
New Scientist · 13 gün önce
0
Meşe Ağaçları Tırtılları Nasıl Kandırıyor? Doğanın Zeka Oyunu
Bilim insanları, meşe ağaçlarının tırtıl saldırılarına karşı şaşırtıcı bir savunma stratejisi geliştirdiğini keşfetti. Bahar aylarında tırtıllar, meşe ağaçlarının besin değeri yüksek genç yapraklarını hedef alır ve optimal zamanda yumurtadan çıkarak yumuşak yaprakları tüketir. Ancak meşe ağaçları bu duruma pasif kalmıyor. Yoğun tırtıl istilasına uğrayan ağaçlar, ertesi yıl yaprak çıkarma zamanlarını üç gün geciktirerek karşı hamle yapıyor. Bu strateji, yumurtadan yeni çıkan tırtılları yaprak bulamayan durumda bırakıyor çünkü yapraklar hâlâ tomurcuklarda saklı kalıyor. Bu keşif, bitkilerin çevresel tehditlere karşı ne kadar sofistike adaptasyon mekanizmaları geliştirebileceğini gösteriyor ve ekolojik etkileşimlerin karmaşıklığını ortaya koyuyor.
Phys.org — Biyoloji · 13 gün önce
0
Siber-Fiziksel Sistemlere Gizli Sürdürülebilirlik Saldırıları Geliştiriliyor
Araştırmacılar, modern siber-fiziksel sistemlerin sürdürülebilirlik hedeflerini sabote eden yeni bir saldırı türü için matematiksel çerçeve geliştirdi. Bu 'sürdürülebilirlik hedefli saldırılar', sistemin performansını normal gösterirken uzun vadeli çevresel maliyetlerini artırarak tespit edilmesi zor hasarlar verebiliyor. Çalışma, bu gizli saldırıların nasıl oluşturulabileceğini ve hangi koşullarda mümkün olduğunu ortaya koyuyor. Elektrik şebekeleri, akıllı fabrikalar ve otonom araçlar gibi kritik altyapılarda artan sürdürülebilirlik entegrasyonu, bu saldırı türünü özellikle tehlikeli hale getiriyor. Araştırma, minimum çaba ile maksimum etki yaratacak saldırı politikalarının matematiksel olarak nasıl modellenebileceğini gösteriyor.
arXiv — Bilgisayar Sistemleri · 13 gün önce
0
Yapay Zeka ile Duygusal Tıklama Tuzağı Saldırıları Geliştiriliyor
Araştırmacılar, sosyal medyada kullanıcıları kandırmak için duygusal manipülasyon tekniklerini kullanan yeni bir yapay zeka saldırı yöntemi geliştirdi. Çalışma, geleneksel clickbait tespitinin yetersizliğini ortaya koyarken, Valence-Arousal-Dominance (VAD) duygusal modelini kullanarak optimize edilmiş aldatıcı başlıklar üreten bir sistem sunuyor. Bu sistem, büyük dil modellerini kullanarak semantik olarak benzer sosyal medya gönderileriyle eşleşen, ancak duygusal etkisi maksimize edilmiş içerikler yaratabiliyor. Araştırma, dijital güvenlik ve bilgi kirliliği alanında önemli sonuçlar doğuruyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
TwinGate: Yapay Zeka Saldırılarına Karşı Yeni Savunma Sistemi Geliştirildi
Araştırmacılar, büyük dil modellerine yönelik gelişmiş siber saldırılara karşı TwinGate adlı yenilikçi bir savunma sistemi geliştirdi. Bu sistem, kötü niyetli kullanıcıların zararsız görünen sorular dizisi halinde gizledikleri tehlikeli talepleri tespit edebiliyor. TwinGate, asimetrik kontrastif öğrenme tekniğini kullanarak, anlam bakımından farklı ama aynı kötü amaca hizmet eden sorguları kümeleyebiliyor. Sistem, kullanıcı kimliklerinin anonim olduğu ve sürekli sorgular geldiği gerçek dünya koşullarında bile etkili çalışıyor. Mevcut savunma yöntemlerinin aksine, TwinGate hesaplama maliyeti düşük bir çözüm sunarak yapay zeka güvenliği alanında önemli bir adım atıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
Yapay Zeka Hakem Sistemlerini Gizli Saldırı Komutlarından Koruma Yöntemi Geliştirildi
Bilim dünyasında yapay zeka tabanlı hakemlik sistemlerinin artan kullanımı, yeni güvenlik tehditlerini de beraberinde getiriyor. Araştırmacılar, makalelerin içine gizlenen zararlı komutlarla bu sistemleri manipüle etmeye çalışan saldırıları tespit etmek için yenilikçi bir savunma sistemi geliştirdi. SafeReview adlı bu sistem, sürekli gelişen saldırı yöntemlerine karşı dinamik bir savunma stratejisi benimsiyor. İki yapay zeka modelinin birlikte çalışmasına dayanan sistem, birinin saldırı komutları üretmesi, diğerinin ise bunları tespit etmesi prensibine dayanıyor. Bu yaklaşım, akademik yayıncılığın güvenilirliğini korumak açısından kritik öneme sahip.
arXiv (Dilbilim & NLP) · 14 gün önce
0
Yapay Zeka Güvenlik Sistemleri Tek Kelimelik Hilelerle Kandırılabiliyor
Araştırmacılar, büyük dil modellerinin güvenlik sistemlerini atlatmak için yeni bir yöntem geliştirdi. 'Aşamalı Tamamlama Ayrıştırması' adı verilen bu teknik, zararlı içerik üretmekten kaçınacak şekilde eğitilmiş yapay zeka modellerini tek kelime tek kelime kandırarak, sonunda istenmeyen yanıtlar vermesini sağlıyor. Yöntem, modeli önce zararlı bir soruyla ilgili tek kelimeleri tamamlaması için yönlendiriyor, ardından bu kelimeleri birleştirerek tam yanıtı elde ediyor. Çeşitli AI model ailelerinde test edilen teknik, mevcut güvenlik saldırılarından daha başarılı sonuçlar gösterdi. Bu keşif, AI güvenlik sistemlerinin beklenenden daha kırılgan olduğunu ve daha gelişmiş koruma mekanizmalarına ihtiyaç duyulduğunu ortaya koyuyor.
arXiv (Dilbilim & NLP) · 14 gün önce
0
COVID-19 salgınının erken döneminde beyin saldıran antikor vakaları ikiye katlandı
Kapsamlı bir laboratuvar verisi analizi, COVID-19 salgınının başlangıcında beyni hedef alan otoimmün antikorların dramatik şekilde arttığını ortaya koydu. Araştırma, bu tehlikeli antikor saldırılarının salgının ilk dalgasında ciddi artış gösterdiğini, ancak toplumsal bağışıklık gelişimi ve aşılama oranlarının yükselmesiyle birlikte normal seviyelere döndüğünü gösteriyor. Bu bulgular, COVID-19'un sadece solunum sistemi üzerindeki etkilerinin yanı sıra, immün sistemin kendi beyin dokularına saldırmasına neden olabileceğini kanıtlıyor. Otoimmün beyin iltihabı vakaları, salgının erken döneminde normal seviyelerin iki katına çıkarken, bu durum virüsün nörolojik etkilerinin ne kadar ciddi olabileceğini gözler önüne seriyor.
PsyPost · 15 gün önce
0
Kuantum İlhamlı Yeni Yöntem Radar Görüntülerini Daha Güvenli Sınıflandırıyor
Araştırmacılar, radar görüntülerinin sınıflandırılmasında devrim yaratabilecek yeni bir yaklaşım geliştirdi. Kuantum mekaniğinden ilham alan tensör ağları kullanılarak oluşturulan bu sistem, geleneksel yöntemlere kıyasla hem daha dayanıklı hem de daha küçük boyutlarda çalışabiliyor. SAR (Sentetik Açıklıklı Radar) görüntüleri, yoğun gürültü ve geniş dinamik aralık nedeniyle sınıflandırma açısından zorlayıcıdır. Yeni yaklaşım, özellikle veri zehirlenmesi saldırılarına karşı güçlü direnç gösteriyor. Bu özellik, askeri uçaklar ve dronlar gibi kritik uygulamalarda büyük önem taşıyor. Geliştirilen model, hem güvenlik açısından sağlamlık hem de cihazlarda verimli çalışma dengesini başarıyla kurarak, radar uygulamaları ve yapay zeka alanında önemli katkılar sunuyor.
arXiv (Fizik) · 15 gün önce
0
Otonom sistemlerin güvenliği için dijital ikiz metodolojisi geliştirildi
Araştırmacılar, otonom platformların siber güvenlik açıklarını değerlendirmek için yeni bir dijital ikiz metodolojisi geliştirdi. Açık kaynak kodlu bu sistem, otonom araçların sensör aldatması, veri tekrarı ve yapay zeka saldırıları gibi tehditlere karşı dayanıklılığını test ediyor. Geleneksel güvenlik testlerinin aksine, bu yaklaşım gerçek operasyonel koşulları simüle ederek tehdit odaklı değerlendirmeler yapıyor. Modüler tasarımı sayesinde farklı otonom sistemlere uyarlanabilen metodoloji, algılama, otonom karar verme ve denetim fonksiyonlarını ayrı ayrı analiz ediyor. Bu çalışma, güvenli otonom sistemlerin geliştirilmesinde kritik bir adım olarak değerlendiriliyor.
arXiv (Robotik) · 15 gün önce
0