...
"LLM" için 222 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
222 haber
Teknoloji & Yapay Zeka
StealthGraph: Yapay Zekâ Güvenlik Açıklarını Ortaya Çıkaran Yeni Sistem
Araştırmacılar, büyük dil modellerinin (LLM) finans ve sağlık gibi özel alanlardaki güvenlik risklerini tespit eden StealthGraph adlı yeni bir framework geliştirdi. Sistem, bilgi grafiklerini kullanarak alan-specific zararlı istekleri sistematik olarak üretebiliyor. Mevcut güvenlik sistemlerinin kolayca tespit edebildiği açık zararlı isteklerin aksine, dolaylı ve örtülü zararlı isteklerin tespiti çok daha zor. StealthGraph, domain bilgisini işlem yapılabilir kısıtlamalara dönüştürürken, zararlı istekleri daha örtülü hale getiren iki aşamalı bir gizleme strategi uygulayarak bu soruna çözüm sunuyor. Bu gelişme, yapay zekâ güvenliğinde önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka, Geri Çekilmiş Bilimsel Makaleleri Ayırt Edemiyor
Büyük Dil Modelleri (LLM), literatür tarama ve özetleme konularında faydalı olabilir, ancak geri çekilmiş makaleler konusunda ciddi sorunlar yaşıyor. Yeni bir araştırma, üç farklı açık kaynak yapay zeka modelinin, geri çekilmiş 161 yüksek profilli makaleyi tanıyıp tanıyamadığını test etti. Sonuçlar oldukça endişe verici: modeller vakaların %80'inden fazlasında geri çekilmiş makalelerin hâlâ geçerli olduğunu iddia etti. Bu durum, yapay zeka sistemlerinin bilimsel literatürde güvenilirlik kontrolü yapamadığını ve potansiyel olarak yanlış bilgileri yaygınlaştırabileceğini gösteriyor. Araştırmacılar için bu bulgu, yapay zeka destekli literatür taramalarında ekstra dikkat gerektiğini ortaya koyuyor.
Teknoloji & Yapay Zeka
Büyük Dil Modelleri Yazılım Güvenlik Testlerinde Çığır Açıyor
Araştırmacılar, yazılım güvenlik açıklarını bulmak için kullanılan fuzzing testlerini büyük dil modelleriyle (LLM) geliştiren yenilikçi bir sistem tasarladı. SDLLMFuzz adlı bu framework, özellikle karmaşık yapılandırılmış girdi gerektiren programlarda etkili. Geleneksel fuzzing yöntemleri, sözdizim kuralları katı olan programlarda geçerli test girdileri üretmekte zorlanıyor ve derin kod yollarını keşfedemiyor. Yeni yaklaşım, LLM'lerin dil anlayışı yeteneklerini statik kod analizi ve dinamik geri bildirimle birleştireyor. Bu sayede hem sözdizimsel olarak doğru hem de anlamsal olarak mantıklı test girdileri üretilebiliyor. Sistem, çalışma zamanı geri bildirimlerini kullanarak kendini sürekli iyileştiren bir döngü oluşturuyor. Araştırma, yapay zekanın siber güvenlik alanındaki potansiyelini gösteriyor ve yazılım geliştirme süreçlerinde daha güvenli uygulamalar oluşturulmasına katkı sağlayabilir.
Teknoloji & Yapay Zeka
Yapay Zekâya Çoklu Davranış Kontrolü: Yeni Token Yöntemi Geliştirildi
Büyük dil modelleri (LLM'ler) günlük hayatta kullanılırken aynı anda birden fazla davranış sergilemesi gerekiyor. Araştırmacılar, bu ihtiyacı karşılamak için 'kompozisyonel yönlendirme tokenları' adlı yeni bir yöntem geliştirdi. Bu teknik, yapay zekâ sistemlerinin tek seferde farklı davranışları birleştirerek daha esnek ve kontrollü çıktılar üretmesini sağlıyor. Önceki yöntemlerin aksine, bu sistem girdi token'ları üzerinde çalışarak daha etkili kompozisyon imkânı sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka ile Bilimsel Grafiklerde Yeni Dönem: Makine Dostu Görselleştirme
Araştırmacılar, büyük dil modellerinin (LLM) bilimsel çalışmalardaki grafiklerle etkileşimini köklü şekilde değiştirecek yeni bir yaklaşım geliştirdi. Geleneksel grafikler statik görsel özetler olarak kalırken, yeni 'LLM-dostu grafikler' konsepti hem insanların anlayabileceği hem de makinelerin işleyebileceği veri odaklı yapılar sunuyor. Bu grafikler, oluşturulma sürecindeki tüm veriyi, analitik işlemleri ve kod bilgilerini içinde barındırıyor. Böylece yapay zeka modelleri, grafikleri sadece piksel olarak değil, arkasındaki veri ve mantığı anlayarak işleyebiliyor. Bu yenilik, bilimsel keşif süreçlerinde insan-yapay zeka iş birliğini daha verimli hale getirme potansiyeli taşıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Hatalarını Anlamanın Yeni Yolu: Karşıtsal Atıf Yöntemi
Araştırmacılar, büyük dil modellerinin (LLM) neden hata yaptığını anlamak için yeni bir yaklaşım geliştirdi. Karşıtsal atıf adlı bu yöntem, modelin yanlış cevap verdiği durumları doğru alternatiflerle karşılaştırarak analiz ediyor. Geleneksel çalışmalar kısa metinlerle sınırlıyken, bu araştırma gerçek dünya koşullarında uzun metinlerle test edildi. Yöntem, modelin hangi kelime ve iç durumların hatalı çıktılara yol açtığını tespit edebiliyor. Farklı model boyutları ve eğitim aşamalarında yapılan kapsamlı testler, bu yaklaşımın AI sistemlerinin güvenilirliğini artırmada önemli bilgiler sağlayabileceğini gösteriyor. Bulgular, yapay zekanın karar verme süreçlerini daha şeffaf hale getirmek için kritik adımlar atıldığını işaret ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri 'Bilmiyorum' Demekte Yetersiz Kalıyor
Araştırmacılar, büyük dil modellerinin (LLM) belirsizlik durumlarında sadece 'bilmiyorum' demekle yetindiğini ve farklı belirsizlik türlerini ayırt edemediğini ortaya koydu. MIT ve diğer kurumlardan bilim insanları, modellerin veri belirsizliği ile kendi yetenek sınırlarından kaynaklanan belirsizliği birbirinden ayıramadığını gösterdi. 3.500'den fazla soru içeren UA-Bench adlı yeni test setinde, en gelişmiş AI modellerinin bile bu konuda başarısız olduğu görüldü. Bu durum, yapay zekanın hangi durumlarda dış araçlara başvurması gerektiği ya da kullanıcıdan açıklama istemesi gerektiği konusunda doğru karar veremediği anlamına geliyor. Çalışma, güvenilir AI sistemleri için belirsizlik yönetiminin kritik önemini vurguluyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Rastgele Sayı Üretmekte Başarısız
Büyük dil modelleri (LLM'ler) sohbet arayüzlerinden karmaşık sistemlerin temel bileşenlerine dönüşürken, belirli olasılık dağılımlarından doğru örnekleme yapabilme kabiliyeti kritik hale geldi. Yeni bir araştırma, 11 farklı yapay zeka modelinin 15 istatistiksel dağılımdan rastgele sayı üretme performansını değerlendirdi. Sonuçlar oldukça çarpıcı: modeller toplu üretimde %7 başarı oranı gösterirken, bağımsız isteklerde neredeyse tamamen başarısız oluyor. Bu durum, yapay zekanın olasılıksal hesaplamalar gerektiren bilimsel ve teknolojik uygulamalarda ciddi sınırları olduğunu ortaya koyuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Kablosuz Haberleşmede Veri Eksikliği Sorununu Çözüyor
Araştırmacılar, kablosuz haberleşme sistemlerinde karşılaşılan veri yetersizliği problemine yenilikçi bir çözüm geliştirdi. LLM-AUG adlı yeni framework, büyük dil modellerinin öğrenme yeteneklerini kullanarak sentetik radyo frekansı verisi üretiyor. Geleneksel yöntemlerin aksine, bu sistem özel model eğitimi gerektirmeden yapılandırılmış komutlarla çalışıyor. RadioML veri seti üzerinde yapılan testlerde, sistem modülasyon sınıflandırma ve girişim tespiti gibi kritik görevlerde mevcut yöntemlerden daha başarılı sonuçlar elde etti. Bu gelişme, pahalı ve zaman alıcı RF veri toplama sürecine alternatif sunarak kablosuz teknolojilerin gelişimini hızlandırabilir.
Teknoloji & Yapay Zeka
Yapay Zeka Ajanları: Chatbot'tan Otonom Karar Verici Sisteme Dönüşüm
Büyük dil modellerinin (LLM) yapay zeka alanındaki yeni rolü, geleneksel metin üretici sistemlerden çok daha fazlasını sunuyor. Araştırmacılar, bu modellerin otonom ajanlar haline nasıl dönüştürülebileceğini gösteren kapsamlı bir çalışma yayınladı. Çalışma, pekiştirmeli öğrenme tekniklerinin LLM'leri planlama, araç kullanımı, hafıza yönetimi ve kendini geliştirme gibi yeteneklerle donatarak gerçek dünya problemlerinde bağımsız karar verebilen sistemlere dönüştürdüğünü ortaya koyuyor. Bu yaklaşım, AI sistemlerinin sadece verilen sorulara cevap vermek yerine, karmaşık ortamlarda uzun vadeli hedefler doğrultusunda hareket edebilmesini sağlıyor. Gelişme, yapay zeka teknolojisinin gelecekteki uygulamaları açısından kritik önem taşıyor.
Teknoloji & Yapay Zeka
BizCompass: İş Dünyası İçin Yapay Zeka Performans Ölçüm Aracı Geliştirildi
Araştırmacılar, büyük dil modellerinin (LLM) iş dünyasındaki performansını değerlendirmek için BizCompass adlı yeni bir benchmark geliştirdi. Bu araç, yapay zekanın finans, ekonomi, istatistik ve operasyon yönetimi gibi temel iş alanlarındaki yetkinliklerini ölçüyor. BizCompass, teorik bilgiyi pratik uygulamalarla birleştirerek, analist, trader ve danışman rollerinde AI'ın ne kadar güvenilir olduğunu test ediyor. İş analizi karmaşık muhakeme gerektirdiğinden, mevcut testlerin yetersiz kaldığı bu alanda kapsamlı bir değerlendirme aracının eksikliği hissediliyordu. Bu benchmark, AI'ın iş dünyasında hangi görevlerde daha başarılı olduğunu ortaya çıkararak, şirketlerin yapay zeka yatırımlarında daha bilinçli kararlar almasına yardımcı olacak.