...
"model uyarlama" için 971 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
971 haber
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Artık Sıkıştırılmış Metinleri Anlayabilecek
Araştırmacılar, büyük dil modellerinin (LLM) sıkıştırılmış metinler üzerinde doğrudan analiz yapabildiğini keşfetti. Bu yenilikçi yaklaşım, sözlük kodlaması kullanarak tekrarlayan metin parçalarını kısa meta-simgelerle değiştiriyor ve model ince ayarına gerek kalmadan %80'e varan sıkıştırma oranları elde ediyor. Sistem, modele verilen sözlük sayesinde sıkıştırılmış metinleri doğru şekilde yorumlayabiliyor ve normal metinlerle aynı kalitede sonuçlar üretiyor. Bu gelişme, özellikle tekrarlı veriler içeren büyük metinlerin işlenmesinde maliyet etkinliği sağlayarak yapay zeka uygulamalarının ekonomik sürdürülebilirliğine önemli katkı sunuyor.
İklim & Çevre
EVE: Dünya bilimi için geliştirilmiş ilk açık kaynak yapay zeka modeli
Araştırmacılar, Dünya bilimleri ve uydu gözlemleri konularında uzmanlaşmış EVE (Earth Virtual Expert) adlı ilk açık kaynak yapay zeka sistemini geliştirdi. 24 milyar parametreli bu model, geleneksel yapay zeka sistemlerinin aksine özellikle iklim değişikliği, çevre izleme ve yer bilimleri alanlarında sorulara daha doğru yanıtlar verebiliyor. EVE, Mistral Small 3.2 temelli bir model üzerine inşa edilmiş ve Dünya gözlem verileri ile eğitilmiş. Sistem, hem çoktan seçmeli hem de açık uçlu sorularda benzer boyuttaki genel amaçlı modellerden daha başarılı performans gösteriyor. 350 pilot kullanıcının test ettiği sistem, API ve web arayüzü üzerinden erişilebilir durumda. Proje, model, veri setleri ve kodları açık lisanslar altında bilim insanlarının kullanımına sunuyor.
Teknoloji & Yapay Zeka
Yapay zeka asistanları artık kişiliğinizi öğreniyor: PersonaVLM ile uzun vadeli hatırla
Günlük hayatımızda milyonlarca kişinin kullandığı yapay zeka asistanları, şimdiye kadar kullanıcı tercihlerini yeterince anlayamıyordu. Stanford ve diğer kurumlardan araştırmacılar, bu sorunu çözmek için PersonaVLM adlı yenilikçi bir sistem geliştirdi. Bu sistem, geleneksel AI asistanlarının aksine kullanıcılarla geçirdiği süre boyunca onların değişen tercihlerini ve kişiliklerini öğrenebiliyor. PersonaVLM üç temel yetenek üzerine kurulu: kullanıcı etkileşimlerinden anıları çıkarıp saklama, bu anıları kullanarak çok aşamalı düşünce yürütme ve zamanla değişen kullanıcı tercihlerine göre yanıtlarını uyarlama. Bu gelişme, yapay zeka asistanlarının tek seferlik etkileşimlerden çok daha derin ve kişiselleştirilmiş deneyimler sunabilmesinin önünü açıyor.
Teknoloji & Yapay Zeka
Siber-Fiziksel Sistemlerde Yeni Mühendislik Yaklaşımı: Modelleme ve Simülasyon
Siber-fiziksel sistemler (CPS), hesaplama ve fiziksel süreçleri birleştiren karmaşık yapılardır. Ancak mevcut mühendislik yaklaşımları, bu sistemlerin çalıştırılma semantiğini yeterince dikkate almıyor. Araştırmacılar, doğrulanmış model davranışları ile gerçek çalıştırma davranışları arasındaki boşluğu kapatmak için yeni bir yaklaşım öneriyor. Bu yaklaşımda, çalıştırma semantiği birinci sınıf mühendislik varlıkları olarak ele alınıyor. Geleneksel formal doğrulama yöntemleri sabit semantik varsayımlarla çalışırken, simülasyon tabanlı doğrulama ise fiziksel kısıtlamaları göz ardı ediyor. Yeni yaklaşım, fiziksel çalıştırma kısıtlamalarını implementasyon detayları yerine semantik sınır koşulları olarak değerlendiriyor. Bu çalışma, CPS mühendisliğinde modelleme ve simülasyon tabanlı yeni bir paradigma sunarak, daha güvenilir ve gerçekçi sistem geliştirme süreçlerinin temelini atıyor.
Teknoloji & Yapay Zeka
Robotlar Koku İzini Nasıl Takip Edecek? Yeni Matematiksel Model Geliştirildi
Araştırmacılar, hareket halindeki koku kaynaklarını takip etme problemini matematiksel olarak modellediler. Çalışma, gecikmiş ve kesintili koku sinyalleriyle hedef tespiti yapmanın zorluklarını ele alıyor. Geliştirilen model, hedefin pozisyon ve hızını aynı anda tahmin eden bir karar verme sistemi kullanıyor. Bulgular, hedef sık yön değiştirdiğinde keşifsel stratejilerin etkili olduğunu, ancak hedef kararlı hareket ettiğinde bu yaklaşımların başarısız olduğunu gösteriyor. Bu araştırma, av arayan hayvanlardan otonom robot sistemlerine kadar geniş bir uygulama alanına sahip.
Teknoloji & Yapay Zeka
Yapay Zeka Sistemler İçin Sorumluluk Paylaşımı Modeli Geliştirildi
Araştırmacılar, çoklu ajan sistemlerinde sorumluluk dağılımının nasıl yapılacağını öğrenen yeni bir yapay zeka modeli geliştirdi. İnsanların etkileşimli ortamlarda kendi hedeflerinden ne kadar taviz vererek başkalarına uyum sağladığını anlayan bu sistem, sosyal olarak uyumlu ve güvenilir otonom teknolojiler tasarlamak için kritik bir adım. Model, belirsizlikleri de hesaba katarak farklı senaryolarda sorumluluk paylaşımının nasıl gerçekleştiğini öğreniyor. Bu yaklaşım, özellikle güvenliğin kritik olduğu durumları dikkate alarak, yapay zeka sistemlerinin insan davranışlarını daha iyi anlamasını sağlıyor.
Teknoloji & Yapay Zeka
PatchPoison: 3D Görüntü Rekonstrüksiyonunu Engelleyen Yeni Güvenlik Yöntemi
Araştırmacılar, kişisel gizliliği korumak için 3D görüntü rekonstrüksiyonunu engelleyen yenilikçi bir yöntem geliştirdi. PatchPoison adı verilen bu teknik, fotoğraflara küçük kareli desenler ekleyerek, bu görüntülerden izinsiz 3D model oluşturulmasını önlüyor. Yöntem, çok açılı görüntülerden yüksek kaliteli 3D modeller üreten 3D Gaussian Splatting teknolojisine karşı etkili bir koruma sağlıyor. Özellikle halka açık paylaşılan fotoğraf ve videolardan kişilerin haberi olmadan detaylı 3D modeller oluşturulması konusundaki endişelere yanıt veriyor. Bu hafif ve pratik çözüm, dijital gizlilik alanında önemli bir adım olarak değerlendiriliyor.
Biyoloji & Yaşam Bilimleri
Yapay zeka ile bağışıklık sistemi tahmini: Güvenilir T hücresi araştırması
Araştırmacılar, T hücresi reseptörlerinin peptid-MHC molekül bağlanmalarını tahmin etmek için yeni bir yapay zeka modeli geliştirdi. Bu sistem, aşı tasarımı ve T hücresi tedavilerinde kritik öneme sahip. Yeni yaklaşım, modelin eğitim sırasında görmediği epitoplarla karşılaştığında sessizce yanlış güven skoru vermesi sorununu çözmeyi hedefliyor. Araştırmacılar, güvenilir tahminler yapabilmek için 'seçici tahmin' yaklaşımını benimsiyor - model ya güvenilir bir skor verir ya da açıkça karar vermekten kaçınır. Dual-encoder mimarisi kullanan sistem, protein dil modeliyle eğitilmiş ve sıcaklık ölçeklendirmesi ile kalibre edilmiş. Conformal abstention kuralı sayesinde kullanıcının belirlediği hata oranında finite-sample kapsama garantisi sağlıyor. Üç farklı test stratejisinde değerlendirilen method, AUROC 0.813 ve ECE 0.043 değerlerine ulaştı.
Teknoloji & Yapay Zeka
Telekomünikasyon AI'larında Güven Seviyesi Ölçümünde Yeni Çifte Geçiş Yöntemi
Büyük dil modelleri telekomünikasyon sektöründe 3GPP spesifikasyon analizi ve ağ sorun giderme gibi karmaşık görevlerde kullanılıyor. Ancak bu modellerin kendi cevaplarına dair güven skorları genellikle yanıltıcı ve aşırı iyimser çıkıyor. Araştırmacılar, Gemma-3 model ailesi üzerinde yaptıkları çalışmada standart tek geçişli güven tahminlerinin yetersiz kaldığını gösterdi. Sorunun çözümü için Twin-Pass Chain of Thought yöntemi adı verilen yeni bir yaklaşım geliştirdiler. Bu teknik, birden fazla bağımsız düşünce zinciri kullanarak modelin kendi doğruluğunu değerlendirme yeteneğini artırıyor. Telekomünikasyon alanında AI güvenilirliğinin kritik öneme sahip olduğu düşünüldüğünde, bu gelişme sektörün AI benimseme sürecini hızlandırabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Arama Sistemlerinde Zaman İçinde Değişen Kullanıcı Davranışları Sorunu
Araştırmacılar, yapay zeka tabanlı arama sistemlerinde kritik bir sorunla karşı karşıya: kullanıcı davranışları zaman içinde değişince sistemin performansı düşüyor. Geleneksel arama sistemleri en yakın eşleşmeyi bulurken, yeni nesil sistemler her öğeye benzersiz tanımlayıcılar vererek aramayı metin üretimi problemi haline getiriyor. Bu yaklaşım başlangıçta etkili olsa da, kullanıcı etkileşim kalıpları değiştikçe tanımlayıcılar güncelliğini kaybediyor. Mevcut çözümler ya sabit tanımlayıcı setleri kullanıyor ya da sistemi sıfırdan yeniden eğitiyor. Bu durumda hem maliyet artıyor hem de sürekli güncelleme zorlaşıyor. Yeni araştırma, bu sorunun ne kadar ciddi olduğunu kronolojik testlerle analiz ediyor ve hafif, model-bağımsız bir güncelleme yöntemi öneriyor.
Teknoloji & Yapay Zeka
Büyük Dil Modelleri İkilem Yaşıyor: Daha Akıllı Ama Aynı Zamanda Daha Kolay Kandırılır
Yeni bir araştırma, yapay zeka dil modellerinin boyutu büyüdükçe paradoksal bir davranış sergilediğini ortaya koyuyor. Cornell Üniversitesi araştırmacıları, büyük modellerin yanlış bilgilere karşı daha dirençli hale gelirken, aynı zamanda rastgele ve anlamsız metinleri taklit etme eğiliminin arttığını keşfetti. Cerebras-GPT ve Pythia model ailelerini analiz eden çalışma, bu durumun öngörülebilir matematiksel yasalara uyduğunu gösteriyor. En büyük modeller, yanlış bilgilere karşı en küçük modellerden dört kat daha dirençliyken, anlamsız içerikleri kopyalama konusunda iki kat daha eğilimli. Bu bulgu, AI sistemlerinin geliştirilmesinde önemli bir ikilem olduğuna işaret ediyor.