...
"ilaç güvenliği" için 535 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
535 haber
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin 'Bilinmeyen' Verilerle Başa Çıkma Sırrı Çözüldü
Araştırmacılar, büyük dil modellerinin alışık olmadığı verilerle karşılaştığında nasıl davrandığını anlamak için yeni bir çerçeve geliştirdi. Mevcut tespit yöntemlerinin aslında metin uzunluğundan etkilendiğini ve bu nedenle yanıltıcı sonuçlar verdiğini keşfettiler. Çalışma, modellerin iki farklı yoldan bilgiyi işlediğini ortaya koyuyor: embedding'ler metnin konusunu yakalarken, işleme yörüngesi modelin veriyi nasıl işlediğini gösteriyor. Bu bulgular, yapay zeka güvenliği ve modellerin güvenilirlik tespiti için önemli sonuçlar taşıyor.
Teknoloji & Yapay Zeka
Çok Dilli AI Güvenliği İçin Yerel Kanunlara Dayalı Yeni Koruma Sistemi
Araştırmacılar, büyük dil modellerinin farklı ülkelerde güvenli kullanımını sağlamak için ML-Bench adlı yeni bir değerlendirme sistemi geliştirdi. 14 farklı dili kapsayan bu sistem, her bölgenin kendi yasal düzenlemelerini ve kültürel özelliklerini dikkate alarak AI güvenlik standartları oluşturuyor. Mevcut sistemlerin aksine, genel risk kategorileri yerine ülkeye özgü kanun metinlerinden doğrudan yararlanıyor. Bu yaklaşım, AI modellerinin küresel kullanımında karşılaşılan yasal ve kültürel uyumsuzluk sorunlarına çözüm getiriyor. Sistem üzerinden geliştirilen ML-Guard koruma modeli, bölgesel düzenlemelere uygun şekilde zararlı içerikleri tespit edip engelleyebiliyor.
Teknoloji & Yapay Zeka
Yapay Zeka Finans Güvenlik Testi: Finansal Suçları Teşvik Eden Zafiyetler Keşfedildi
Araştırmacılar, büyük dil modellerinin finansal senaryolardaki güvenlik açıklarını değerlendirmek için FinSafetyBench adlı yeni bir test sistemi geliştirdi. Bu iki dilli (İngilizce-Çince) değerlendirme platformu, yapay zeka modellerinin finansal uyum kurallarını ihlal eden talepleri reddetme kapasitesini ölçüyor. Gerçek finansal suç vakalarına dayanan test, 14 farklı kategoriyi kapsıyor ve hem genel amaçlı hem de finansa özel yapay zeka modellerinde kritik güvenlik boşlukları tespit etti. Özellikle Çince bağlamlarda modellerin daha savunmasız olduğu ve sofistike saldırılara karşı istem düzeyindeki savunmaların yetersiz kaldığı ortaya çıktı. Bu bulgular, finansal sektörde kullanılan yapay zeka sistemlerinin güvenlik önlemlerinin güçlendirilmesi gerektiğini gösteriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Arama Sonuçları Nasıl Manipüle Ediliyor?
Araştırmacılar, büyük dil modellerinin (LLM) arama sonuçlarını özetlerken nasıl önyargılı davrandığını ve bu önyargıların nasıl manipüle edilebileceğini inceledi. Çalışma, web arama sistemlerinde kullanılan yapay zeka overview sistemlerinin hem kaynak seçiminde hem de cevap üretiminde önyargılardan etkilendiğini ortaya koyuyor. Araştırmacılar, reinforcement learning ile eğitilmiş küçük bir dil modeli kullanarak arama snippet'lerini yeniden yazarak, LLM'lerin bu içerikleri tercih etme olasılığını artırmayı başardı. Bu bulgular, yapay zeka destekli arama sistemlerinin güvenilirliği ve manipülasyona karşı direnci konusunda önemli sorular gündeme getiriyor.
Biyoloji & Yaşam Bilimleri
DNA sentezi güvenliğinde devrim: Yeni sistem biyolojik tehditleri %100 yakalıyor
Bilim insanları, DNA sentezi siparişlerindeki potansiyel biyolojik tehditleri tespit etmek için yeni bir güvenlik sistemi geliştirdi. CRC-Screen adlı bu sistem, mevcut güvenlik protokollerinin büyük bir açığını kapatıyor. Geleneksel yöntemler, bilinen tehlikeli DNA dizilerini referans listelerle karşılaştırarak çalışır, ancak bu yaklaşım yeni veya bilinmeyen toksik organizmaların DNA dizileri karşısında yetersiz kalıyor. Araştırmacılar, yapay zeka destekli üç farklı analiz yöntemini birleştiren hibrit bir sistem tasarladı. Bu sistem, DNA dizilerinin k-mer benzerliklerini, beş farklı büyük dil modelinin değerlendirmelerini ve kümelenmiş veri yapılarındaki kosinüs benzerliklerini analiz ediyor. Test sonuçları, sistemin farklı taksonomik ailelerden gelen tehlikeli DNA dizilerini %100 başarıyla tespit ettiğini gösteriyor. Bu gelişme, biyogüvenlik alanında önemli bir adım olarak değerlendiriliyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Eğitim Sonrası Gelişimi İçin Yeni Rehber Araştırma
Büyük dil modellerinin (LLM) temel eğitimden sonra zararlı çıktılar üretmesi ve matematik, kodlama gibi alanlarda yetersiz kalması önemli bir sorun teşkil ediyor. Araştırmacılar, bu sorunları çözmek için pekiştirmeli öğrenme tabanlı post-eğitim yöntemlerini geliştirdi. İnsan geri bildirimiyle pekiştirmeli öğrenme (RLHF) ve doğrulanabilir ödüllerle pekiştirmeli öğrenme (RLVR) gibi yaklaşımlar bu alanda kayda değer ilerlemeler sağladı. Yeni araştırma, bu farklı yöntemleri tek bir çerçevede birleştiren kapsamlı bir inceleme sunuyor. Çalışma, temel eğitim, denetimli ince ayar, RLHF ve RLVR yöntemlerini birleşik bir politika gradyanı çerçevesi altında topluyor. Bu yaklaşım, yapay zeka modellerinin güvenliği ve performansı açısından kritik öneme sahip.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin 'Reddetme' Mekanizması Haritası Çıkarıldı
Araştırmacılar, büyük dil modellerinin zararlı içerikleri nasıl reddettiğini kontrol eden beyin devrelerini keşfetti. Çalışma, modellerin içindeki 'kapı' ve 'yükselteç' adı verilen dikkat başlıklarının, tehlikeli içerikleri tespit edip reddetme sinyali ürettiğini gösteriyor. 2 milyar ile 72 milyar parametreli 12 farklı modelde aynı mekanizma bulundu. En şaşırtıcı keşif, bu sistemin manipüle edilebilir olması: araştırmacılar sinyali ayarlayarak modelleri sert reddedici tavırdan zararlı içerik üreticisine dönüştürebildi. Bu bulgular, AI güvenliği ve model davranışlarının kontrolü açısından kritik önem taşıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliği için Yeni Çözüm: Ayrışık Güvenlik Adaptörleri
Araştırmacılar, yapay zeka sistemlerinin güvenliğini sağlamak için yenilikçi bir yaklaşım geliştirdi. Ayrışık Güvenlik Adaptörleri (DSA) adlı bu sistem, güvenlik kontrollerini ana modelden ayırarak hem verimlilik hem de esneklik sağlıyor. Geleneksel güvenlik yöntemleri ya performansı düşürüyor ya da geliştirme sürecini kısıtlıyordu. DSA ise nefret söylemi tespiti, zararlı içerik engelleme ve halüsinasyon önleme gibi alanlarda %53'e varan iyileşmeler göstererek bu sorunu çözüyor. Sistem, minimal hesaplama maliyetiyle çalışırken, kullanıcıların güvenlik seviyesini anlık olarak ayarlamasına da olanak tanıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenlik Testleri Neden Yetersiz Kalıyor?
Yeni bir araştırma, mevcut yapay zeka güvenlik değerlendirmelerinin kritik bir eksikliği olduğunu ortaya koyuyor. Çin menşeli dil modellerinde siyasi sansür mekanizmalarını inceleyen bilim insanları, zararlı içerik tespitinin kolay olduğunu, ancak asıl sorunun bu bilgilerin davranışsal politikalara nasıl yönlendirildiğinde saklı olduğunu keşfetti. Beş farklı laboratuvardan dokuz açık kaynak model üzerinde yapılan deneyler, prob doğruluğunun tek başına yanıltıcı olabileceğini gösterdi. Araştırmacılar, siyasi hassasiyet yönünü kaldırdıklarında çoğu modelde sansürün ortadan kalktığını ve doğru bilgi üretiminin geri geldiğini gözlemledi. Ancak bir modelde bilgi mimarisi sansür mekanizmasıyla o kadar iç içe geçmişti ki, müdahale sonrası model gerçek dışı bilgiler üretmeye başladı. Bu bulgular, AI güvenlik testlerinin yeniden düşünülmesi gerektiğini işaret ediyor.
Fizik
Kuantum Bilgisayarlarda Güvenlik Açığı: Devreler Birbirini Etkiliyor
IBM'in kuantum işlemcilerinde yapılan yeni araştırma, bulut tabanlı kuantum bilgisayarlarda ciddi güvenlik sorunları ortaya çıkardı. Araştırmacılar, aynı anda çalışan kuantum devrelerinin birbirini etkileyerek veri güvenliğini tehdit ettiğini keşfetti. Yedi farklı IBM işlemcisinde test edilen beş temel kuantum algoritması, tahmin edilebilir girişim desenleri gösterdi. Bu bulgular, kuantum bulut bilişimde çoklu kullanıcı sistemlerinin güvenliğine dair önemli sorular ortaya koyuyor. Özellikle Grover Algoritması gibi 'agresif' devrelerin diğer kullanıcıların işlemlerini önemli ölçüde etkileyebildiği görüldü. Kuantum bilgisayarların ticari kullanımının artmasıyla birlikte bu güvenlik açıklarının kapatılması kritik önem kazanıyor.
Fizik
Kuantum Dolaşıklık ile Siber Saldırılara Karşı Güvenli İletişim
Araştırmacılar, kuantum dolaşıklık teknolojisini kullanarak siber saldırganların iletişim kanallarını bozma girişimlerine karşı etkili bir savunma yöntemi geliştirdi. Çalışma, iki nokta arasında güvenli veri iletimi için dolaşık foton çiftlerinin nasıl kullanılabileceğini gösteriyor. Bu yöntem, özellikle enerji sınırlı saldırganların binary phase shift keying tekniği ile yaptıkları müdahalelere karşı dayanıklılık sağlıyor. Geleneksel sistemlerde güvenlik için paylaşılan rastgele anahtarlar kullanılırken, bu yeni yaklaşım kuantum mekaniğinin temel özelliklerinden yararlanarak daha güvenli bir alternatif sunuyor. Optik iletişim modelleri üzerinde yapılan teorik çalışma, kuantum teknolojilerinin siber güvenlik alanındaki potansiyelini ortaya koyuyor.