"ağ performansı" için 762 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
762 haber
Elektrik Şebekelerinde Yeni Optimizasyon Yöntemi: IBP ile Hızlı Güvenlik Analizi
Araştırmacılar, elektrik şebekelerinin güvenli ve ekonomik işletimi için kritik öneme sahip güvenlik kısıtlı güç akış optimizasyonu problemlerini çözmek üzere yenilikçi bir yaklaşım geliştirdi. Yapay zeka doğrulama alanından ödünç alınan Interval Bound Propagation (IBP) tekniğini kullanan bu yöntem, binlerce güvenlik kısıtını içeren büyük sistemlerde bile hızlı sonuçlar üretiyor. Geleneksel ticari çözücülerin performansının sistem büyüklüğü ve acil durum senaryoları arttığında düştüğü durumlarda, yeni yaklaşım %3,98'in altında ortalama hata payıyla sertifikalı sınırlar hesaplayabiliyor. Bu gelişme, şebeke operatörlerinin daha büyük ve karmaşık sistemlerde bile güvenilir karar verebilmesini sağlayacak.
arXiv — Bilgisayar Sistemleri · 11 gün önce
0
Yapay Zeka Algoritmalarının Dayanıklılığını Artıran Yeni Matematik Yaklaşımı
Araştırmacılar, dinamik sistemlerin gürültü ve bozulmalara karşı dayanıklılığını ölçmek için yeni bir matematiksel çerçeve geliştirdi. Distribüsyonel Girdi-Durum Kararlılığı (dISS) adı verilen bu yaklaşım, olasılık dağılımları üzerinde çalışan algoritmaların ne kadar güvenilir olduğunu belirlemek için Wasserstein metriğini kullanıyor. Bu yöntem, özellikle makine öğrenmesi ve yapay zeka uygulamalarında kullanılan gradyan akış algoritmalarının performansını değerlendirmede önemli avantajlar sağlıyor. Klasik kararlılık kavramlarını genişleterek, hem atomik hem de sürekli ölçümler üzerindeki bozulmaların etkilerini daha hassas bir şekilde yakalayabiliyor. Bu gelişme, büyük ölçekli algoritmaların güvenilirliğini artırmada önemli bir adım olarak görülüyor.
arXiv — Bilgisayar Sistemleri · 11 gün önce
0
Portekizce için Geliştirilen NorBERTo Yapay Zeka Modeli 331 Milyar Token ile Eğitildi
Brezilya'daki araştırmacılar, Portekizce doğal dil işleme alanında çığır açan yeni bir yapay zeka modeli geliştirdi. NorBERTo adlı bu model, ModernBERT mimarisine dayalı olarak tasarlandı ve Aurora-PT adı verilen dev bir Portekizce veri kümesi ile eğitildi. Bu veri kümesi, çeşitli web kaynaklarından toplanan 331 milyar GPT-2 token içeriyor. Model, metin benzerliği, mantıksal çıkarım ve sınıflandırma görevlerinde test edildiğinde, özellikle PLUE ve ASSIN 2 benchmark testlerinde kayda değer başarılar elde etti. NorBERTo-large versiyonu, değerlendirilen kodlayıcı modeller arasında en iyi performansı göstererek Portekizce NLP uygulamaları için önemli bir adım teşkil ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Komedide 'Zamanlama Her Şey' Sözünün Bilimsel İspatı
Komedyenler yıllardır 'zamanlama her şeydir' der durur. Şimdi bilim insanları bu sözün haklılığını kanıtladı. 828 Çinli stand-up komedyeninin performansını analiz eden araştırmacılar, mizahta zamanlamanın içerikten çok daha önemli olduğunu keşfetti. Çalışma, beynimizin tahmin yapma kapasitesi ve beklenti ihlallerinden nasıl zevk aldığımızı açıklayan yeni bir çerçeve sunuyor. Bulgular, mizah anlayışımızda anlamsal uyumsuzluktan ziyade temporal yapının belirleyici rol oynadığını gösteriyor. Bu keşif, hem mizah teorilerini hem de beynin tahmin süreçlerini anlamamızda önemli bir adım.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Mamba AI Modelinin Gizli Hafızası Beklenen Performansı Gösteremedi
Yapay zeka dünyasında dikkat çeken Mamba modeli, teorik olarak her kelimeyi sıkıştırılmış bir hafızada saklayabiliyor. Araştırmacılar, bu özelliğin otomatik cümle özetleme için kullanılabileceğini düşünmüştü. Ancak yeni çalışma, bu beklentiyi karşılamadığını ortaya koydu. Mamba-130M modeli üzerinde yapılan testlerde, beş farklı benchmark görevinde (duygu analizi, dilbilgisel doğruluk, cümle benzerliği gibi) modelin donmuş temsilleri incelendi. Sonuçlar hayal kırıklığı yarattı: özel sınır noktalarından çıkarılan temsiller, basit ortalama alma yönteminden tutarlı bir şekilde daha iyi performans gösteremedi. Daha da önemlisi, araştırmacılar modelin iç yapısında iki ciddi sorun tespit etti: temsillerin birbirine aşırı benzemesi ve son durum vektörlerinde anlam kaybı. Bu bulgular, Mamba gibi yeni nesil dil modellerinin teorik potansiyellerini pratiğe dönüştürmenin düşünülenden daha karmaşık olduğunu gösteriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Öğrenci Yanlış Anlamalarını Tespit Ediyor
Araştırmacılar, büyük dil modellerini kullanarak öğrencilerin zorlandığı konulardaki yanlış anlamaları sistematik olarak belirlemenin yeni bir yolunu geliştirdi. Beş farklı biyomedikal bilim dersinden toplanan verilerle yapılan çalışma, 3.802 tıp öğrencisinin performansını analiz etti. İki aşamalı metodoloji ile önce quiz performanslarından zorlayıcı konular belirlendi, ardından yapay zeka bu alanlardaki temel kavram yanılgılarını karakterize etti. Bu yaklaşım, online öğrenme ortamlarında eğitimcilerin öğrenci zorluklarını daha iyi anlamalarına ve müdahale stratejileri geliştirmelerine yardımcı olabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Sağlık Metinlerini Nasıl Daha Ekonomik İşleyebilir?
Büyük dil modelleri sağlık alanında kullanılırken yüksek maliyet sorunuyla karşılaşıyor. Araştırmacılar, uzun ve karmaşık klinik metinlerin işlenmesi için yeni bir yöntem geliştirdi. Bu yaklaşım, sınırlı bütçe ile en önemli bilgi parçalarını seçerek hem maliyeti düşürüyor hem de performansı koruyor. Klinik notlar, tıbbi özetler ve değerlendirme metinleri üzerinde yapılan deneyler, akıllı seçim stratejilerinin başarılı olduğunu gösterdi. Bu gelişme, sağlık teknolojilerinde yapay zekanın daha verimli kullanılması için önemli bir adım.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Ajanları İçin Yeni Optimizasyon Sistemi: Agent Capsules
Araştırmacılar, çoklu yapay zeka ajanlarının birlikte çalıştığı sistemlerde hem performansı artıran hem de maliyeti düşüren yenilikçi bir çözüm geliştirdi. Agent Capsules adlı bu sistem, birden fazla AI ajanının görevlerini daha verimli şekilde koordine etmesini sağlıyor. Geleneksel yaklaşımlarda her ajan için ayrı dil modeli çağrısı yapılması hem pahalı hem de yavaş sonuçlar doğuruyordu. Yeni sistem, ajanları akıllıca gruplandırarak token kullanımını azaltırken, kalite kaybını önlemek için sürekli performans kontrolü yapıyor. Sistem, üç farklı strateji arasında seçim yapabiliyor ve kalite düşüşü algıladığında otomatik olarak daha güvenli modlara geçiş yapıyor. Bu gelişme, çoklu AI ajan sistemlerinin daha geniş çapta kullanımına olanak sağlayabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
ReLay: Yapay zeka, karmaşık bilimi herkese özel özetlerle açıklıyor
Araştırmacılar, karmaşık bilimsel makaleleri herkesçe anlaşılır şekilde özetlemeyi amaçlayan ReLay sistemini geliştirdi. Büyük dil modellerini kullanan bu sistem, okuyucunun bilgi düzeyine ve ihtiyaçlarına göre kişiselleştirilmiş özetler üretiyor. 50 katılımcı ve 300 özet çiftiyle yapılan testlerde, beş farklı yapay zeka modelinin performansı değerlendirildi. Özellikle sağlık alanında, bilimsel bilgilerin yanlış anlaşılması gerçek hayat kararlarını etkileyebileceği için bu kişiselleştirme yaklaşımı kritik önem taşıyor. Sistem, kullanıcıların anlama düzeylerini, bilgi arama davranışlarını ve etkileşim loglarını analiz ederek her okuyucuya özel açıklamalar sunuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Yapay Zeka Arayüz Etkileşiminde Büyük Verimlilik Atılımı
Yapay zeka ajanlarının grafik kullanıcı arayüzleriyle etkileşimi sırasında karşılaştığı büyük veri sorunu için yenilikçi bir çözüm geliştirildi. A11y-Compressor adlı framework, arayüz verilerini %78 oranında sıkıştırırken performansı artırıyor. Sistem, erişilebilirlik ağaçlarındaki gereksiz bilgileri temizleyerek ve yapısal düzenlemeler yaparak çalışıyor. OSWorld benchmark testlerinde yapılan denemelerde, sıkıştırılmış veriler orijinalin sadece %22'si kadar yer kaplarken, görev başarı oranları ortalama %5.1 puan artış gösterdi. Bu gelişme, yapay zeka ajanlarının bilgisayar arayüzleriyle daha verimli çalışabilmesi için kritik bir adım teşkil ediyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0
Transformer'larda Yerel Dikkat Mekanizmasının Gücü Matematiksel Olarak Açıklandı
Yapay zeka dünyasının en önemli mimarilerinden transformer'ların yerel dikkat mekanizması, şaşırtıcı bir şekilde küresel dikkattan daha iyi sonuçlar verebiliyor. Araştırmacılar, bu paradoksal durumun nedenini matematiksel olarak açıkladı. Yerel dikkat, her kelimenin sadece sınırlı sayıda önceki kelimeye odaklanmasını sağlayarak hem hesaplama maliyetini düşürüyor hem de model performansını artırıyor. Çalışma, bu mekanizmanın ifade gücünü lineer zamansal mantık çerçevesinde analiz ederek, yerel dikkat eklenmesinin modele ek bir geçmiş operatörü kazandırdığını gösteriyor. Bu keşif, dil modellerinin nasıl çalıştığına dair temel anlayışımızı derinleştiriyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 11 gün önce
0