"ilaç güvenliği" için 535 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
535 haber
Yapay zeka ilaç keşfinde çığır açıyor: Az veriyle doğru tahmin yapan yeni model
Araştırmacılar, moleküllerin özelliklerini tahmin etmek için tablo tabanlı temel modelleri (TFM) kullanarak çığır açan bir yaklaşım geliştirdi. Bu yeni yöntem, geleneksel makine öğrenmesi modellerinin aksine görev özelinde eğitim gerektirmeden, bağlam içi öğrenme ile tahminlerde bulunabiliyor. İlaç geliştirme sürecinde kritik olan moleküler özellik tahmini, genellikle sınırlı veri setleri nedeniyle zorlu bir alan. Yeni yaklaşım, hem standart ilaç kıyaslama testlerinde hem de kimya mühendisliği veri setlerinde mükemmel performans göstererek, makine öğrenmesi uzmanlığı gerektirmeden etkili sonuçlar elde edilmesini sağlıyor. Bu gelişme, ilaç keşfi, kataliz ve süreç tasarımı gibi alanlarda devrim yaratma potansiyeli taşıyor.
arXiv (CS + AI) · 25 gün önce
0
Otonom Sistemlerin Güvenliğini Sağlayan Yeni Doğrulama Algoritması Geliştirildi
Araştırmacılar, optimal kontrol sistemi kullanan otonom araçlar ve robotlar için yeni bir güvenlik doğrulama algoritması geliştirdi. Çalışma, optimal kontrolörlerin her zaman mükemmel çözüm bulamayabileceği gerçeğinden hareketle, bu durumlarda bile sistemlerin güvenli kalmasını sağlayacak bir erişebilirlik analizi sunuyor. Gradyan inişi algoritmalarını ayrı bir dinamik sistem olarak ele alan yöntem, fiziksel sistemle birlikte çalışarak kontrolörlerin gerçek zamanlı performansını değerlendiriyor. Bu yaklaşım, karmaşıklaşan sistem dinamikleri ve hesaplama kısıtları altında çalışan otonom sistemlerin güvenliğini garanti altına almak için kritik önem taşıyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay zeka mobil uygulamaların gizlilik çelişkilerini tespit ediyor
Araştırmacılar, mobil uygulamaların Google Play mağazasındaki veri güvenliği beyanları ile gizlilik politikaları arasındaki tutarsızlıkları otomatik olarak tespit eden yeni bir yapay zeka sistemi geliştirdiler. PolicyGapper adı verilen bu sistem, büyük dil modellerini kullanarak uygulamaların gerçek veri toplama uygulamaları ile kullanıcılara sundukları beyanlar arasındaki çelişkileri ortaya çıkarıyor. Araştırma, popüler uygulamaların neredeyse %80'inin eksik veya yanıltıcı gizlilik beyanları içerdiğini göstermişti. Bu yeni teknoloji, kullanıcı verilerinin korunması açısından kritik olan şeffaflık sorununa çözüm getirmeyi hedefliyor. Sistem, uygulama kodlarına erişim gerektirmeden sadece halka açık dokümanları analiz ederek çalışıyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka İçin Güvenli Veri Üretiminde Yeni Yaklaşım: DPDSyn
Araştırmacılar, yapay zeka modellerinin eğitimi için güvenli sentetik veri üretiminde çığır açan bir yöntem geliştirdi. DPDSyn adlı bu yaklaşım, diferansiyel gizlilik prensiplerine uygun olarak veri setleri oluşturmak için yeni bir strateji benimsiyor. Geleneksel yöntemler, orijinal verinin düşük boyutlu dağılımlarını seçerek sentetik veri üretmeye odaklanırken, bu yaklaşım doğrudan görev odaklı bir model kullanıyor. Yöntem, önce orijinal veri seti üzerinde diferansiyel gizliliği koruyan bir AI modeli eğitiyor, ardından bu modeli kullanarak yeni veri setleri sentezliyor. Bu yaklaşım, uygun düşük boyutlu dağılımları seçme zorluğunu ortadan kaldırarak, sentetik verinin kullanılabilirliğini artırmayı hedefliyor. Diferansiyel gizlilik, verinin bireysel mahremiyetini korurken istatistiksel analizlere olanak tanıyan önemli bir güvenlik konsepti.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Modellerinin Test Sırasında Hizalanması İçin Yeni Yöntem Geliştirildi
Araştırmacılar, büyük yapay zeka modellerinin test sırasında daha güvenli ve uyumlu davranması için yenilikçi bir yöntem geliştirdi. Mevcut yaklaşımlar, küçük bir 'rehber' modelin büyük modeli yönlendirmesine dayanıyor ancak güven ölçütlerinde sorunlar yaşanıyor. Yeni çalışma, bu sorunun belirsiz ifadeler gibi dil olguları nedeniyle ortaya çıktığını gösteriyor. Önerilen 'muhafazakar güven bahsi' yaklaşımı, önceki yöntemlere göre birden fazla veri setinde daha başarılı sonuçlar üretti. Bu gelişme, yapay zeka güvenliği açısından önemli bir adım teşkil ediyor.
arXiv (CS + AI) · 25 gün önce
0
Çoklu Sekme Trafiğini Ayıran Yeni AI Sistemi: DEMUX ile Daha Güvenli İnternet
Araştırmacılar, Tor gibi anonim ağlarda kullanıcıların hangi siteleri ziyaret ettiğini tespit eden saldırılara karşı yeni bir savunma geliştirdi. DEMUX adlı sistem, kullanıcılar aynı anda birden fazla sekme açtığında oluşan karışık trafik yapısını analiz ederek güvenlik açıklarını kapatıyor. Mevcut derin öğrenme yöntemleri tek sekme kullanımında yüksek başarı gösterse de, çoklu sekme durumunda performansları ciddi şekilde düşüyor. Yeni sistem, sınır korumalı pencere bölümleme, çok ölçekli paralel CNN ve zamansal ilişkilendirme modüllerini bir araya getirerek bu sorunu çözüyor. Geliştirilen yöntem, internet trafiğinin daha güvenli hale gelmesi ve kullanıcı mahremiyetinin korunması açısından önemli bir adım sayılıyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Güvenlik Açıklarını Tespit Eden Kapsamlı Test Veri Seti Geliştirildi
Büyük dil modellerinin güvenlik kritik uygulamalarda kullanımının artmasıyla birlikte, bu sistemlerin kötü niyetli saldırılara karşı dayanıklılığının test edilmesi büyük önem kazandı. Araştırmacılar, mevcut test veri setlerindeki tutarsızlık ve sınırlı kapsam sorunlarını çözmek için RedBench adlı kapsamlı bir veri seti geliştirdi. Bu yeni sistem, 37 farklı benchmark veri setini birleştirerek toplam 29.362 test örneği sunuyor ve yapay zeka modellerinin güvenlik açıklarının sistematik şekilde değerlendirilmesini sağlıyor. RedBench, 22 risk kategorisi ve 19 farklı alan içeren standartlaştırılmış bir sınıflandırma sistemi kullanarak, araştırmacılara tutarlı ve kapsamlı değerlendirme imkânı sunuyor.
arXiv (CS + AI) · 25 gün önce
0
Gizlilik Korumalı Yapay Zeka Algoritmalarında Yeni Hata Sınır Yöntemi
Araştırmacılar, makine öğrenmesinde gizlilik koruma ile genelleme performansı arasındaki dengeyi daha iyi anlamamızı sağlayacak yeni bir matematiksel yaklaşım geliştirdi. Çalışma, diferansiyel gizlilik kullanan algoritmaların ne kadar iyi genelleme yapabileceğini tahmin etmek için bilgi teorisi ve tipiklik kavramlarını birleştiriyor. Bu yöntem, özellikle kişisel verilerle çalışan yapay zeka sistemlerinde kritik önem taşıyor. Araştırmacılar, mevcut sınırları önemli ölçüde geliştiren ve hesaplaması kolay formüller sunarak, gizli verilerin güvenliğini korurken algoritma performansını optimize etme konusunda yeni olanaklar açıyor. Bu gelişme, sağlık, finans ve sosyal medya gibi hassas veri alanlarında çalışan yapay zeka sistemleri için büyük pratik değer taşıyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Modelleri Kendi Hatalarını Ne Kadar İyi Fark Ediyor?
Araştırmacılar, yapay zeka modellerinin kendi düşünce süreçlerini ne kadar iyi izleyebildiğini ölçen kapsamlı bir test sistemi geliştirdi. Bu sistem, insanların kendi bilişsel süreçlerini değerlendirmesini inceleyen psikoloji araştırmalarından ilham alarak tasarlandı. 20 farklı yapay zeka modeli üzerinde yapılan testler, modellerin kendi doğru ve yanlış cevaplarını ayırt etme yeteneklerinde büyük farklılıklar olduğunu ortaya koydu. Bu araştırma, yapay zeka güvenliği açısından kritik öneme sahip çünkü bir modelin kendi sınırlarını bilmesi, hatalı bilgi vermesini önlemeye yardımcı olabilir.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Güvenliğinde Yeni Tehdit: Akıl Yürütme Korsanlığı Keşfedildi
Araştırmacılar, büyük dil modellerinde (LLM) şimdiye kadar göz ardı edilen kritik bir güvenlik açığını ortaya çıkardı. 'Akıl Yürütme Korsanlığı' adı verilen bu yeni saldırı türü, yapay zekanın ana görevini değiştirmeden karar verme mantığını manipüle ediyor. Geleneksel güvenlik önlemlerinin hedef değiştirme saldırılarına odaklandığını belirten bilim insanları, bu yeni yaklaşımın modellerin karar alma kriterlerini gizlice değiştirerek yanlış sonuçlara ulaşmasına neden olabileceğini gösterdi. Bulgular, mevcut yapay zeka güvenlik stratejilerinin yetersiz olduğunu ve daha kapsamlı koruma mekanizmalarına ihtiyaç duyulduğunu ortaya koyuyor.
arXiv (CS + AI) · 25 gün önce
0
Hipersonik Uçaklar İçin Yeni Sıcaklık Kontrol Yöntemi Geliştirildi
Bilim insanları, hipersonik hızlarda uçan araçlarda karşılaşılan aşırı ısınma sorununa yenilikçi bir çözüm geliştirdi. Yüzey sıcaklığının belirli bölgelerde farklılaştırılması yoluyla, sınır tabaka akışının kararsızlığını kontrol altına alan bu pasif yöntem, hipersonik uçuşların güvenliğini artırabilir. Mach 4.8 ile 6 arasındaki hızlarda test edilen sistem, laminer akıştan türbülanslı akışa geçişi engelleyerek aşırı ısı transferini önlüyor. Bu buluş, gelecekteki hipersonik uçaklar ve uzay araçları için kritik öneme sahip.
arXiv (Fizik) · 25 gün önce
0