...
"model koruması" için 981 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
981 haber
Teknoloji & Yapay Zeka
Siber-Fiziksel Sistemlerde Yeni Mühendislik Yaklaşımı: Modelleme ve Simülasyon
Siber-fiziksel sistemler (CPS), hesaplama ve fiziksel süreçleri birleştiren karmaşık yapılardır. Ancak mevcut mühendislik yaklaşımları, bu sistemlerin çalıştırılma semantiğini yeterince dikkate almıyor. Araştırmacılar, doğrulanmış model davranışları ile gerçek çalıştırma davranışları arasındaki boşluğu kapatmak için yeni bir yaklaşım öneriyor. Bu yaklaşımda, çalıştırma semantiği birinci sınıf mühendislik varlıkları olarak ele alınıyor. Geleneksel formal doğrulama yöntemleri sabit semantik varsayımlarla çalışırken, simülasyon tabanlı doğrulama ise fiziksel kısıtlamaları göz ardı ediyor. Yeni yaklaşım, fiziksel çalıştırma kısıtlamalarını implementasyon detayları yerine semantik sınır koşulları olarak değerlendiriyor. Bu çalışma, CPS mühendisliğinde modelleme ve simülasyon tabanlı yeni bir paradigma sunarak, daha güvenilir ve gerçekçi sistem geliştirme süreçlerinin temelini atıyor.
Teknoloji & Yapay Zeka
Robotlar Koku İzini Nasıl Takip Edecek? Yeni Matematiksel Model Geliştirildi
Araştırmacılar, hareket halindeki koku kaynaklarını takip etme problemini matematiksel olarak modellediler. Çalışma, gecikmiş ve kesintili koku sinyalleriyle hedef tespiti yapmanın zorluklarını ele alıyor. Geliştirilen model, hedefin pozisyon ve hızını aynı anda tahmin eden bir karar verme sistemi kullanıyor. Bulgular, hedef sık yön değiştirdiğinde keşifsel stratejilerin etkili olduğunu, ancak hedef kararlı hareket ettiğinde bu yaklaşımların başarısız olduğunu gösteriyor. Bu araştırma, av arayan hayvanlardan otonom robot sistemlerine kadar geniş bir uygulama alanına sahip.
Teknoloji & Yapay Zeka
Yapay Zeka Sistemler İçin Sorumluluk Paylaşımı Modeli Geliştirildi
Araştırmacılar, çoklu ajan sistemlerinde sorumluluk dağılımının nasıl yapılacağını öğrenen yeni bir yapay zeka modeli geliştirdi. İnsanların etkileşimli ortamlarda kendi hedeflerinden ne kadar taviz vererek başkalarına uyum sağladığını anlayan bu sistem, sosyal olarak uyumlu ve güvenilir otonom teknolojiler tasarlamak için kritik bir adım. Model, belirsizlikleri de hesaba katarak farklı senaryolarda sorumluluk paylaşımının nasıl gerçekleştiğini öğreniyor. Bu yaklaşım, özellikle güvenliğin kritik olduğu durumları dikkate alarak, yapay zeka sistemlerinin insan davranışlarını daha iyi anlamasını sağlıyor.
Teknoloji & Yapay Zeka
PatchPoison: 3D Görüntü Rekonstrüksiyonunu Engelleyen Yeni Güvenlik Yöntemi
Araştırmacılar, kişisel gizliliği korumak için 3D görüntü rekonstrüksiyonunu engelleyen yenilikçi bir yöntem geliştirdi. PatchPoison adı verilen bu teknik, fotoğraflara küçük kareli desenler ekleyerek, bu görüntülerden izinsiz 3D model oluşturulmasını önlüyor. Yöntem, çok açılı görüntülerden yüksek kaliteli 3D modeller üreten 3D Gaussian Splatting teknolojisine karşı etkili bir koruma sağlıyor. Özellikle halka açık paylaşılan fotoğraf ve videolardan kişilerin haberi olmadan detaylı 3D modeller oluşturulması konusundaki endişelere yanıt veriyor. Bu hafif ve pratik çözüm, dijital gizlilik alanında önemli bir adım olarak değerlendiriliyor.
Biyoloji & Yaşam Bilimleri
Yapay zeka ile bağışıklık sistemi tahmini: Güvenilir T hücresi araştırması
Araştırmacılar, T hücresi reseptörlerinin peptid-MHC molekül bağlanmalarını tahmin etmek için yeni bir yapay zeka modeli geliştirdi. Bu sistem, aşı tasarımı ve T hücresi tedavilerinde kritik öneme sahip. Yeni yaklaşım, modelin eğitim sırasında görmediği epitoplarla karşılaştığında sessizce yanlış güven skoru vermesi sorununu çözmeyi hedefliyor. Araştırmacılar, güvenilir tahminler yapabilmek için 'seçici tahmin' yaklaşımını benimsiyor - model ya güvenilir bir skor verir ya da açıkça karar vermekten kaçınır. Dual-encoder mimarisi kullanan sistem, protein dil modeliyle eğitilmiş ve sıcaklık ölçeklendirmesi ile kalibre edilmiş. Conformal abstention kuralı sayesinde kullanıcının belirlediği hata oranında finite-sample kapsama garantisi sağlıyor. Üç farklı test stratejisinde değerlendirilen method, AUROC 0.813 ve ECE 0.043 değerlerine ulaştı.
Teknoloji & Yapay Zeka
Telekomünikasyon AI'larında Güven Seviyesi Ölçümünde Yeni Çifte Geçiş Yöntemi
Büyük dil modelleri telekomünikasyon sektöründe 3GPP spesifikasyon analizi ve ağ sorun giderme gibi karmaşık görevlerde kullanılıyor. Ancak bu modellerin kendi cevaplarına dair güven skorları genellikle yanıltıcı ve aşırı iyimser çıkıyor. Araştırmacılar, Gemma-3 model ailesi üzerinde yaptıkları çalışmada standart tek geçişli güven tahminlerinin yetersiz kaldığını gösterdi. Sorunun çözümü için Twin-Pass Chain of Thought yöntemi adı verilen yeni bir yaklaşım geliştirdiler. Bu teknik, birden fazla bağımsız düşünce zinciri kullanarak modelin kendi doğruluğunu değerlendirme yeteneğini artırıyor. Telekomünikasyon alanında AI güvenilirliğinin kritik öneme sahip olduğu düşünüldüğünde, bu gelişme sektörün AI benimseme sürecini hızlandırabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Arama Sistemlerinde Zaman İçinde Değişen Kullanıcı Davranışları Sorunu
Araştırmacılar, yapay zeka tabanlı arama sistemlerinde kritik bir sorunla karşı karşıya: kullanıcı davranışları zaman içinde değişince sistemin performansı düşüyor. Geleneksel arama sistemleri en yakın eşleşmeyi bulurken, yeni nesil sistemler her öğeye benzersiz tanımlayıcılar vererek aramayı metin üretimi problemi haline getiriyor. Bu yaklaşım başlangıçta etkili olsa da, kullanıcı etkileşim kalıpları değiştikçe tanımlayıcılar güncelliğini kaybediyor. Mevcut çözümler ya sabit tanımlayıcı setleri kullanıyor ya da sistemi sıfırdan yeniden eğitiyor. Bu durumda hem maliyet artıyor hem de sürekli güncelleme zorlaşıyor. Yeni araştırma, bu sorunun ne kadar ciddi olduğunu kronolojik testlerle analiz ediyor ve hafif, model-bağımsız bir güncelleme yöntemi öneriyor.
Teknoloji & Yapay Zeka
Büyük Dil Modelleri İkilem Yaşıyor: Daha Akıllı Ama Aynı Zamanda Daha Kolay Kandırılır
Yeni bir araştırma, yapay zeka dil modellerinin boyutu büyüdükçe paradoksal bir davranış sergilediğini ortaya koyuyor. Cornell Üniversitesi araştırmacıları, büyük modellerin yanlış bilgilere karşı daha dirençli hale gelirken, aynı zamanda rastgele ve anlamsız metinleri taklit etme eğiliminin arttığını keşfetti. Cerebras-GPT ve Pythia model ailelerini analiz eden çalışma, bu durumun öngörülebilir matematiksel yasalara uyduğunu gösteriyor. En büyük modeller, yanlış bilgilere karşı en küçük modellerden dört kat daha dirençliyken, anlamsız içerikleri kopyalama konusunda iki kat daha eğilimli. Bu bulgu, AI sistemlerinin geliştirilmesinde önemli bir ikilem olduğuna işaret ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Tıbbi Metinleri Analiz Ederken Kendi Sınırlarını Öğreniyor
Araştırmacılar, tıbbi metin analizi için yeni bir yapay zeka sistemi geliştirdi. L2D-Clinical adlı bu sistem, ne zaman uzmanlaşmış BERT modellerini, ne zaman ise büyük dil modellerini kullanması gerektiğini kendi kendine öğrenebiliyor. Sistem, belirsizlik sinyallerini ve metin özelliklerini analiz ederek hangi durumda hangi modelin daha başarılı olacağını tahmin ediyor. İlaç yan etkisi tespiti ve tedavi sonucu sınıflandırması gibi görevlerde test edilen sistem, tek bir model kullanmaya kıyasla daha yüksek doğruluk oranları elde etti. Bu yaklaşım, tıbbi yapay zeka uygulamalarında farklı modellerin güçlü yanlarını birleştirerek daha güvenilir sonuçlar elde etmeyi mümkün kılıyor.
Teknoloji & Yapay Zeka
MOONSHOT: Yapay Zeka Modellerini Sıkıştırma Sanatında Çoklu Hedef Yaklaşımı
Araştırmacılar, milyarlarca parametreli yapay zeka modellerini yeniden eğitmeden küçültebilen yeni bir framework geliştirdi. MOONSHOT adlı bu sistem, mevcut model sıkıştırma yöntemlerinin tek hedefli yaklaşımlarının yetersizliklerini gidererek, hem katman bazında yeniden yapılandırma hatalarını hem de eğitim kaybının matematiksel yaklaşımlarını aynı anda optimize ediyor. Bu çoklu hedefli strateji, farklı mimarilerde ve sıkıştırma seviyelerinde daha tutarlı sonuçlar veriyor. Framework, mevcut budama algoritmalarının etrafına sarılabilen esnek bir yapıya sahip ve büyük dil modellerinden görüntü işleme modellerine kadar geniş bir yelpazede kullanılabiliyor.
Teknoloji & Yapay Zeka
Video Sıkıştırmada Yapay Zeka için Yeni Esnek Yaklaşım: PAT-VCM
Araştırmacılar, makine öğrenmesi sistemleri için video sıkıştırma teknolojisinde önemli bir yenilik geliştirdi. PAT-VCM adlı yeni sistem, farklı yapay zeka görevleri için ayrı ayrı video kodlayıcı eğitme ihtiyacını ortadan kaldırıyor. Geleneksel yöntemler her görev için özel sıkıştırma algoritması gerektirirken, bu sistem tek bir temel video akışını hafif 'yardımcı tokenlar' ile destekleyerek çoklu görevlerde kullanılabiliyor. Sistem, görsel kalıntı tokenları, kontrol tokenları ve anlamsal tokenlar olmak üzere üç tür yardımcı bilgi türünü destekliyor. Nesne tespiti, derinlik tahmin etme ve görüntü segmentasyonu gibi farklı görevlerde test edilen sistem, her görev için ayrı model eğitme maliyetini azaltırken performansı koruyor. Bu yaklaşım, yapay zeka sistemlerinin video analizi yeteneklerini daha verimli hale getirerek endüstriyel uygulamalarda önemli bir adım teşkil ediyor.