"LoRA" için 19 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
19 haber
Akıllı Telefonlarda Yapay Zeka Devrimi: Samsung Galaxy'de Çok Dilli LLM
Araştırmacılar, Samsung Galaxy S24 ve S25 cihazlarında büyük dil modellerini (LLM) verimli şekilde çalıştıran yenilikçi bir sistem geliştirdi. Bu çalışma, akıllı telefonların sınırlı bellek ve işlem gücü kısıtları altında çoklu görevleri destekleyen tek bir yapay zeka modelinin nasıl çalıştırılabileceğini gösteriyor. Sistem, farklı uygulama alanları için özelleştirilmiş LoRA modüllerini kullanarak tek seferde resmi, kibar veya eğlenceli gibi farklı tarzlarda yanıtlar üretebiliyor. Dynamic Self-Speculative Decoding tekniği sayesinde gecikme süresi 6 kata kadar azaltılmış. Bu gelişme, yapay zekanın mobil cihazlarda daha geniş kullanım alanı bulmasının önünü açıyor ve kullanıcılara bulut bağlantısı olmadan gelişmiş AI deneyimi sunuyor.
arXiv (CS + AI) · 23 gün önce
0
Yapay zeka modellerini eğitmek için yeni akıllı yöntem: TLoRA
Araştırmacılar, büyük dil modellerini daha verimli şekilde eğitmek için TLoRA adlı yeni bir yöntem geliştirdi. Bu teknik, mevcut LoRA sisteminin geliştirilmiş versiyonu olarak, modellerin belirli görevlere uyarlanması sürecini optimize ediyor. TLoRA, eğitim başlangıcında veri odaklı bir başlangıç stratejisi kullanarak kaynakları daha akıllı şekilde dağıtıyor. Sistem, önceden eğitilmiş ağırlıklar üzerinde matematiksel analizler yaparak görevle alakalı alt alanları tespit ediyor ve hassasiyet tabanlı ölçümlerle kaynak tahsisini ayarlıyor. Bu yaklaşım, hem eğitim karmaşıklığını azaltmayı hem de pratik verimliliği artırmayı hedefliyor. Yapay zeka modellerinin özelleştirilmesi sürecinde önemli bir adım olan bu çalışma, daha az hesaplama gücüyle daha etkili sonuçlar elde etme potansiyeli taşıyor.
arXiv (CS + AI) · 24 gün önce
0
Renkli 3D Nokta Bulutları İçin Yeni Kayıt Yöntemi: GeGS-PCR
Araştırmacılar, 3D nokta bulutlarının kayıt işleminde devrim niteliğinde bir yöntem geliştirdi. GeGS-PCR adlı bu sistem, geleneksel yöntemlerin aksine sadece geometrik bilgilere değil, aynı zamanda renk ve Gaussian bilgilerine de dayanıyor. Özellikle düşük örtüşme oranına sahip veya eksik veri içeren senaryolarda güçlü performans sergiliyor. İki aşamalı yaklaşım benimseyen sistem, çok seviyeli renk kodlayıcısı ve Geometric-3DGS modülü ile yerel komşuluk bilgilerini işleyerek küresel olarak değişmeyen bir geometrik-renk bağlamı oluşturuyor. LORA optimizasyonu sayesinde yüksek performansı korurken, hızlı diferansiyellenebilir render tekniği ile kayıt sürecini iyileştiriyor. Bu yenilik, robotik, otonom araçlar ve artırılmış gerçeklik uygulamalarında kritik öneme sahip 3D görü sistemlerinde önemli gelişmelere kapı açabilir.
arXiv (CS + AI) · 24 gün önce
0
HiP-LoRA: Yapay Zeka Modellerini Daha Verimli Eğitmenin Yeni Yolu
Araştırmacılar, büyük yapay zeka modellerini daha az kaynak kullanarak eğitmenin yeni bir yöntemini geliştirdi. HiP-LoRA adlı bu teknik, mevcut LoRA yönteminin spektral girişim sorununu çözerek, modellerin hem önceki bilgilerini korumasını hem de yeni görevleri öğrenmesini sağlıyor. Yöntem, model güncellemelerini iki kanala ayırarak ve tekil değer ayrıştırması kullanarak daha dengeli bir öğrenme süreci sunuyor. Llama-3.1-8B modeli üzerinde yapılan deneyler, bu yaklaşımın geleneksel yöntemlere göre daha kararlı sonuçlar verdiğini gösteriyor. Bu gelişme, sınırlı hesaplama kaynakları olan araştırmacılar ve geliştiriciler için önemli fırsatlar yaratıyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Modellerini Eğitmenin Yeni Yolu: Bi-LoRA Tekniği Geliştirildi
Araştırmacılar, büyük yapay zeka modellerini daha verimli şekilde eğitmek için Bi-LoRA adlı yeni bir teknik geliştirdi. Bu yöntem, modellerin genelleme yeteneğini artıran SAM algoritmasının yüksek bellek ve hesaplama maliyeti sorununu çözüyor. Geleneksel LoRA yönteminin sınırlı alt uzayda çalışma problemi, ikinci bir yardımcı modül ekleyerek aşılıyor. Bi-LoRA, ana modülün görev odaklı öğrenme yaparken yardımcı modülün SAM'in adversarial pertürbasyonlarını yakalamasını sağlıyor. Bu yaklaşım, büyük dil modellerinin sınırlı veriyle eğitilmesinde karşılaşılan genelleme problemlerine çözüm sunuyor. Özellikle parametre-verimli ince ayar yapılması gereken büyük ölçekli modeller için umut verici sonuçlar gösteriyor.
arXiv (CS + AI) · 24 gün önce
0
AI Modellerini Birleştirirken 'Zararlı Modülleri' Ayıklayan Yöntem Geliştirildi
Yapay zeka araştırmacıları, çoklu görev yapabilen AI modellerinin performansını artırmak için yenilikçi bir yaklaşım geliştirdi. LoRA (Düşük Dereceli Adaptasyon) tekniğiyle oluşturulan uzman modelleri birleştirirken, genel performansı düşüren 'negatif modüllerin' varlığını keşfettiler. ENMP adlı yeni yöntem, evrimsel arama stratejisi kullanarak bu zararlı bileşenleri tespit edip çıkarıyor. Araştırma, mevcut model birleştirme yaklaşımlarının 'tüm bileşenlerin yapıcı katkıda bulunduğu' varsayımının yanlış olduğunu ortaya koyuyor. Bu buluş, AI sistemlerinin daha verimli çalışması için önemli bir adım teşkil ediyor.
arXiv (CS + AI) · 24 gün önce
0
Drone'lar IoT Ağlarını Daha Verimli Hale Getiriyor: Yeni Yapay Zeka Algoritması
Araştırmacılar, İnsan Olmayan Hava Araçları (İHA) kullanarak LoRa tabanlı IoT ağlarının enerji verimliliğini artıran yeni bir yapay zeka sistemi geliştirdi. GLo-MAPPO adlı bu çok-ajanli derin pekiştirmeli öğrenme algoritması, drone'ların mobil ağ geçidi olarak görev yapmasını sağlıyor. Sistem, geleneksel sabit ağ geçitlerinin kapsama alanı boşlukları ve yüksek enerji tüketimi sorunlarına çözüm getiriyor. 5G/6G ekosistemlerinde kritik rol oynayan IoT ağları için önemli bir gelişme olan bu teknoloji, özellikle dinamik ortamlarda daha etkili veri toplama imkanı sunuyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Modellerinde Çoklu Görev Öğrenimini İyileştiren Yeni Yöntem Geliştirildi
Araştırmacılar, yapay zeka modellerinde farklı görevler için eğitilmiş LoRA adaptörlerini birleştirirken yaşanan performans kaybının temel nedenini keşfetti. Çalışma, sorunun LoRA matrislerinden B matrisinin ortak yönleri aşırı vurgulamasından kaynaklandığını ortaya koydu. Geliştirilen Pico yöntemi, veri kullanmadan bu sorunu çözerek matematik, kodlama, finans ve tıp alanlarındaki sekiz farklı benchmark testinde başarı gösterdi. Bu buluş, büyük dil modellerinin çoklu görev performansını artırabilir.
arXiv (Dilbilim & NLP) · 24 gün önce
0
Yapay Zeka Modelleri Tartışmalı Örnekleri 'Unutuyor': LoRA Eğitiminde Şaşırtıcı Keşif
Araştırmacılar, yapay zeka modellerinin LoRA fine-tuning yöntemiyle eğitilirken beklenmedik bir davranış sergilediğini keşfetti. Uzmanların görüş ayrılığı yaşadığı tartışmalı örneklerde, modeller eğitim sürecinde performans kaybı yaşıyor - yani bu örnekleri 'unutuyor'. Bu durum, geleneksel tam eğitim yöntemlerinde görülmeyen ve altı farklı modelde tutarlı bir şekilde ortaya çıkan niteliksel olarak farklı bir öğrenme deseni oluşturuyor. ChaosNLI veri setindeki örnek başına 100 etiketle hesaplanan annotasyon entropisi ve SNLI ile MNLI'deki kayıp eğrisi alanı arasında pozitif korelasyon bulundu.
arXiv (Dilbilim & NLP) · 24 gün önce
0
Yapay Zeka Modelleri Artık Anlık Olarak Kendilerini Uyarlayabiliyor
Araştırmacılar, büyük dil modellerinin farklı görevlere uyum sağlaması için yeni bir yaklaşım geliştirdi. LoRA on the Go (LoGo) adlı bu sistem, modellerin her yeni girdi için en uygun adaptörü otomatik olarak seçip birleştirmesini sağlıyor. Geleneksel yöntemlerin aksine, LoGo herhangi bir ek eğitim gerektirmiyor ve sadece tek bir ileri geçişle hangi adaptörün kullanılacağına karar veriyor. Sistem, 5 doğal dil işleme kriterinde, 27 veri setinde ve 3 farklı model ailesinde test edildi. Sonuçlar, LoGo'nun eğitim gerektiren mevcut yöntemlerden daha başarılı olduğunu gösteriyor. Bu gelişme, yapay zeka sistemlerinin gerçek dünya uygulamalarında karşılaştıkları çeşitli ve öngörülemeyen görevlere daha esnek şekilde adapte olabilmesi açısından önemli bir adım.
arXiv (CS + AI) · 24 gün önce
0
LoRaQ: Yapay Zeka Modellerini 4 Kat Daha Az Bellekte Çalıştıran Yöntem
Araştırmacılar, büyük yapay zeka modellerini sınırlı donanımlarda çalıştırmak için LoRaQ adlı yeni bir yöntem geliştirdiler. Bu teknik, modellerin boyutunu önemli ölçüde küçültürken performans kaybını minimize ediyor. Geleneksel yaklaşımlar 4-bit sıkıştırma yapıldığında ciddi performans düşüşleri yaşarken, LoRaQ düşük-rank yaklaşım yöntemleriyle bu sorunu çözüyor. En önemli yenilik, yardımcı dalların da sıkıştırılabilir olması ve kalibrasyon için veri gerektirmemesi. Bu sayede ilk kez tamamen 16-bit altında çalışan bir sistem elde ediliyor. Özellikle diffusion transformer modelleri için kritik olan bu gelişme, mobil cihazlar ve edge computing uygulamaları için büyük önem taşıyor.
arXiv (CS + AI) · 24 gün önce
0