...
"kombinatoryal optimizasyon" için 686 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
686 haber
Teknoloji & Yapay Zeka
Yapay Zeka Etik Anlaşmazlıkları Nasıl Çözecek? Reddit Verileriyle Test Edildi
Stanford araştırmacıları, çelişkili etik görüşleri mantıklı bir şekilde birleştiren yeni bir yapay zeka sistemi geliştirdi. Geleneksel çoğunluk oylaması yöntemlerinin aksine, bu sistem farklı görüşleri gürültü olarak görmek yerine mantık tabanlı bir yaklaşım kullanıyor. Reddit'in r/AmItheAsshole forumundaki milyonlarca tartışmayı analiz eden sistem, popüler görüşlerden %62 oranında farklı sonuçlar üretiyor. Araştırmacılar, sistemin doğal dil açıklamalarını mantıksal kurallara dönüştürdükten sonra, bu kuralları matematiksel optimizasyon problemi olarak çözüyor. Bağımsız değerlendirmecilerle %86 uyum oranına ulaşan sistem, özellikle etik ikilemler ve toplumsal anlaşmazlıklar konusunda adil karar verme mekanizmaları geliştirilmesinde önemli bir adım sayılıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Sağlık Metinlerini Nasıl Daha Ekonomik İşleyebilir?
Büyük dil modelleri sağlık alanında kullanılırken yüksek maliyet sorunuyla karşılaşıyor. Araştırmacılar, uzun ve karmaşık klinik metinlerin işlenmesi için yeni bir yöntem geliştirdi. Bu yaklaşım, sınırlı bütçe ile en önemli bilgi parçalarını seçerek hem maliyeti düşürüyor hem de performansı koruyor. Klinik notlar, tıbbi özetler ve değerlendirme metinleri üzerinde yapılan deneyler, akıllı seçim stratejilerinin başarılı olduğunu gösterdi. Bu gelişme, sağlık teknolojilerinde yapay zekanın daha verimli kullanılması için önemli bir adım.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinde Hız Rekoru: EVICT Sistemi 2 Kat Daha Hızlı İşlem Sağlıyor
Araştırmacılar, yapay zeka modellerinin metin üretim hızını artırmak için EVICT adlı yeni bir sistem geliştirdi. Bu sistem, özellikle karmaşık Mixture-of-Experts (MoE) modellerinde yaşanan performans sorunlarını çözerek, gereksiz hesaplamaları ortadan kaldırıyor. EVICT, ağaç tabanlı tahmini kod çözme tekniğini optimize ederek, sadece faydalı token'ları doğrulama sürecine dahil ediyor. Sistem herhangi bir ek eğitim gerektirmeden çalışabiliyor ve mevcut altyapılarla uyumlu. Farklı model mimarileri üzerinde yapılan testlerde sistemin 2 kata kadar hız artışı sağladığı görüldü. Bu gelişme, ChatGPT gibi büyük dil modellerinin yanıt verme hızını önemli ölçüde artırabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Ajanları İçin Yeni Optimizasyon Sistemi: Agent Capsules
Araştırmacılar, çoklu yapay zeka ajanlarının birlikte çalıştığı sistemlerde hem performansı artıran hem de maliyeti düşüren yenilikçi bir çözüm geliştirdi. Agent Capsules adlı bu sistem, birden fazla AI ajanının görevlerini daha verimli şekilde koordine etmesini sağlıyor. Geleneksel yaklaşımlarda her ajan için ayrı dil modeli çağrısı yapılması hem pahalı hem de yavaş sonuçlar doğuruyordu. Yeni sistem, ajanları akıllıca gruplandırarak token kullanımını azaltırken, kalite kaybını önlemek için sürekli performans kontrolü yapıyor. Sistem, üç farklı strateji arasında seçim yapabiliyor ve kalite düşüşü algıladığında otomatik olarak daha güvenli modlara geçiş yapıyor. Bu gelişme, çoklu AI ajan sistemlerinin daha geniş çapta kullanımına olanak sağlayabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Eğitiminde Hafıza Kullanımını Yarıya İndiren Yeni Teknik
Araştırmacılar, büyük dil modellerinin eğitimi sırasında GPU hafıza kullanımını dramatik şekilde azaltan AGoQ adlı yeni bir teknik geliştirdi. Bu yöntem, farklı katmanlar için uygun bit genişlikleri ayıran akıllı bir aktivasyon sıkıştırma algoritması ve 8-bit gradient depolama sistemi kullanıyor. 64 GPU'ya kadar test edilen sistem, hafıza kullanımını %52 oranında azaltırken, eğitim hızını 1.34 kata kadar artırdı. Geleneksel yöntemlerden farklı olarak, model doğruluğunda kayıp yaşanmadan bu verimliliği sağlıyor. Bu gelişme, büyük yapay zeka modellerinin eğitimini daha erişilebilir hale getirebilir ve daha az donanım kaynak gereksinimi sayesinde maliyetleri önemli ölçüde düşürebilir.
Teknoloji & Yapay Zeka
Yapay Zeka Beynini İnsan Hafızasından İlham Alan Sistem Geliştirdi
Büyük dil modelleri uzun süreli kullanıcı etkileşimlerinde kişiselleştirme sağlamak için hafıza sistemlerine ihtiyaç duyar, ancak sınırlı bağlam pencereleri bu süreci zorlaştırır. Araştırmacılar, insan beynindeki prefrontal korteks ve hipokampüs bölgelerinin işlevsel ayrımından ilham alarak MemCoE adlı iki aşamalı optimizasyon sistemi geliştirdi. Bu sistem, hafızanın nasıl organize edilmesi ve hangi bilgilerin güncellenmesi gerektiğini öğrenir. İlk aşamada kontrastif geri bildirimle küresel kılavuzlar oluşturulur, ikinci aşamada ise bu kılavuzlarla uyumlu hafıza politikaları optimize edilir. Yenilik, insan bilişsel süreçlerini taklit ederek AI sistemlerinin uzun vadeli öğrenmesini iyileştirmeyi hedefler.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerini Hızlandıran Yeni Sıkıştırma Tekniği Geliştirildi
Araştırmacılar, büyük dil modellerinin boyutunu küçültmek için ARHQ adlı yenilikçi bir yöntem geliştirdi. Bu teknik, modellerin performansını korurken boyutlarını önemli ölçüde azaltabiliyor. Geleneksel sıkıştırma yöntemlerinin aksine, ARHQ hata yayılımını önlemek için ağırlıkları iki ayrı dala bölerek işlem yapıyor. Yöntem, hassas hesaplamalar gerektiren kısımları yüksek kalitede tutarken, diğer bölümleri güvenle sıkıştırıyor. Qwen3-4B modeli üzerindeki testler, bu yaklaşımın mantıksal düşünme yeteneklerini koruduğunu gösteriyor. Bu gelişme, yapay zeka modellerinin mobil cihazlarda ve sınırlı kaynaklara sahip sistemlerde daha verimli çalışmasının önünü açıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Eğitiminde 'Goodhart Sorunu' İçin Yeni Çözüm: DRRO Yöntemi
Büyük dil modellerinin insan geri bildirimlerinden öğrenmesi sırasında yaşanan kritik bir sorun çözülmeye çalışılıyor. ChatGPT gibi modeller, insanlardan aldıkları geri bildirimlerle eğitilirken 'ödül aşırı optimizasyonu' sorunu yaşıyor - yani gerçek performans düşerken bile proxy ödül puanları yükselmeye devam edebiliyor. Bu durum, Goodhart yasası olarak bilinen 'bir ölçü hedef haline geldiğinde, artık iyi bir ölçü olmaktan çıkar' prensibinin bir yansıması. Araştırmacılar, bu soruna Wasserstein dağıtımsal olarak güçlü pişmanlık optimizasyonu (DRRO) adında yeni bir yaklaşım geliştirdi. Mevcut yöntemler genellikle aşırı kötümser sonuçlar verirken, bu yöntem daha dengeli bir çözüm sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Öğrenmesinde Çeşitlilik Sorunu: Tek Çözüme Takılan Algoritmalar
Yapay zeka araştırmacıları, ödül tabanlı öğrenme yöntemlerinin beklenmedik bir sorununu keşfetti. RLVR adı verilen bu yöntemler, tek deneme başarısında iyi performans gösterirken, birden fazla çözüm üretme konusunda başarısız oluyor. Araştırmacılar bu durumun nedenini, algoritmaların doğru çözümler arasında eşit dağılım göstermemesine bağlıyor. Bu 'çeşitlilik çöküşü' olarak adlandırılan fenomen, AI sistemlerinin alternatif geçerli çözümleri görmezden gelerek tek bir doğru yanıta odaklanmasına yol açıyor. Yeni geliştirilen UCPO yaklaşımı, bu sorunu çözmek için uniform dağılım ilkesini kullanıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Artık Metinlerden Sayısal Puanlar Çıkarabiliyor
Araştırmacılar, büyük dil modellerinin metinleri derinlemesine analiz ederek karmaşık sayısal değerlendirmeler yapabildiği yeni bir alan tanımladı: akıl yürütme yoğunlu regresyon. Bu yaklaşım, rubrik tabanlı puanlama, karmaşık ortamlarda ödül modelleme ve alan-özel arama gibi uygulamalarda kullanılıyor. Mevcut yöntemlerin yetersiz kaldığı durumlarda, araştırmacılar MENTAT adlı yeni bir hibrit yaklaşım geliştirdi. Bu yöntem, toplu yansıtmalı prompt optimizasyonu ile sinir ağı topluluk öğrenimini birleştirerek, sınırlı veri ve hesaplama kaynaklarıyla bile etkili sonuçlar üretiyor. Geleneksel duygu analizi gibi basit görevlerin ötesinde, yapay zekanın metin anlama kapasitesini artıran bu gelişme, eğitim değerlendirmelerinden karmaşık karar verme süreçlerine kadar geniş bir uygulama alanı sunuyor.
Teknoloji & Yapay Zeka
Küçük Dil Modelleri Müşteri Hizmetlerinde LLM'lere Rakip Olabilir mi?
Araştırmacılar, müşteri hizmetleri sohbet botlarında kullanılan büyük dil modellerinin (LLM) yerine geçebilecek daha küçük alternatifleri inceledi. Çok turlu konuşmalarda bağlamı koruyarak yanıt verebilen küçük dil modellerinin (SLM) performansı, kaynak tüketimi düşük ortamlarda test edildi. Dokuz farklı küçük model, üç ticari büyük modelle karşılaştırıldı. Araştırma, konuşma geçmişini özetleyerek koruyan bir strateji kullandı ve müşteri hizmetleri etkileşimlerinin farklı aşamalarında model davranışlarını analiz etti. Bu çalışma, hesaplama gücü sınırlı ortamlarda etkili müşteri hizmetleri sistemleri geliştirmek isteyen şirketler için önemli bulgular sunuyor.