...
"LLM" için 222 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
222 haber
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Daha Tutarlı Dünya Anlayışı Geliştirebilir mi?
Büyük dil modellerinin (LLM) tutarlı bir iç dünya modeli geliştirip geliştiremediği yapay zeka alanındaki temel tartışmalardan biri. Geleneksel tek-token tahmin yöntemlerinin aksine, çoklu-token tahmin yaklaşımı daha yapılandırılmış öğrenme sunuyor. Yeni araştırma, bu yöntemin gradient etkileşimi yoluyla iç inanç durumlarına yakınsamayı nasıl teşvik ettiğini teorik olarak açıklıyor. Ancak standart çoklu-token tahmin yönteminde yapısal halüsinasyonlar ortaya çıkabiliyor. Araştırmacılar bu sorunu çözmek için Gizli Semantik Geliştirme adlı yeni bir yaklaşım öneriyor. Bu yöntem, tahminleri gerçek gizli durum yörüngelerine sabitleyerek çevresel kısıtlamaları ihlal eden yasadışı kısayolları engelliyor. Çalışma, yapay zeka modellerinin dünya anlayışını geliştirme konusunda önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay zeka modellerinin güvenilirlik ölçümü için yeni test protokolü geliştirildi
Araştırmacılar, büyük dil modellerinin (LLM) kendine güven sinyallerinin ne kadar güvenilir olduğunu test etmek için klinik psikoloji alanından uyarlanan yeni bir protokol geliştirdi. Bu protokol, modellerin kendi performansları hakkındaki değerlendirmelerinin ne derece doğru olduğunu ölçüyor. 20 farklı yapay zeka modeli üzerinde yapılan testlerde, dört modelin güvenilirlik sinyallerinin geçersiz, ikisinin belirsiz olduğu tespit edildi. Geçerli profil gösteren modellerin ortalama doğruluk korelasyonu 0.18 iken, geçersiz profil gösterenlerde bu değer -0.20 olarak ölçüldü. Bu çalışma, yapay zeka sistemlerinin güvenlik kritik kararlar almasında ve performans değerlendirmelerinde önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Kendi Güvenilirliklerini Ne Kadar İyi Tahmin Edebiliyor?
Araştırmacılar, büyük dil modellerinin (LLM) kendi performanslarına olan güven düzeylerinin ne kadar doğru olduğunu ölçen yeni bir değerlendirme sistemi geliştirdi. Yedi farklı aileden 20 en gelişmiş AI modelinin test edildiği çalışmada, modeller güven sinyallerine göre 'Geçerli', 'Belirsiz' ve 'Geçersiz' olmak üzere üç kategoriye ayrıldı. Sonuçlar, güven sinyalleri geçerli olan modellerin seçici tahmin performansında çok daha başarılı olduğunu ortaya koydu. Bu bulgular, AI sistemlerinin hangi sorularda kendilerine güvenebileceklerini belirleme yeteneğinin geliştirilmesi açısından kritik öneme sahip.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Zayıf Noktalarını Tespit Eden Yeni Yöntem Geliştirildi
Araştırmacılar, büyük dil modellerinin (LLM) hangi beceri alanlarında yetersiz kaldığını sistematik olarak tespit edebilen STaD (İskele Görev Tasarımı) adlı yeni bir çerçeve geliştirdi. Geleneksel kıyaslama testleri sadece genel başarı puanları verirken, STaD modellerin hangi mantıksal yeteneklerden yoksun olduğunu adım adım ortaya çıkarıyor. Altı farklı AI modeli üzerinde yapılan testler, her modelin kendine özgü zayıflıklarını ve eksik beceri alanlarını belirledi. Bu yaklaşım, AI geliştiricilerinin modellerini daha hedefe yönelik şekilde iyileştirmelerine olanak tanıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Zararsız Talepleri Neden Reddediyor? Yeni Çözüm Geldi
Büyük dil modelleri (LLM'ler) güvenlik mekanizmaları nedeniyle zararsız talepleri bile reddeden 'aşırı ret' davranışı sergiliyor. Bu durum, duygu analizi veya çeviri gibi rutin görevlerde bile modellerin işe yaramaz hale gelmesine neden oluyor. Araştırmacılar, modellerin embedding uzayında 'takımyıldızı' benzeri örüntüler oluşturduğunu keşfetti. Her doğal dil işleme görevi, katmanlar arasında tutarlı yörüngeler takip ediyor ve ret ile ret-olmayan durumlar arasında öngörülebilir değişiklikler gösteriyor. SafeConstellations adlı yeni yaklaşım, bu yörünge örüntülerini izleyerek modelleri doğru yöne yönlendiriyor.
Teknoloji & Yapay Zeka
Audio-DeepThinker: Sesli AI Modellerine Mantıklı Düşünme Becerileri Kazandıran Yeni Teknik
Araştırmacılar, büyük ses-dil modellerinin (LALM) sadece algılama ve cevaplama yerine mantıklı düşünme süreçleri geliştirebilmesi için Audio-DeepThinker adlı yeni bir framework geliştirdi. Mevcut sesli AI sistemleri, kullanıcıların sorularına doğrudan cevap verebilseler de açık bir akıl yürütme süreci sergilemedikleri için sınırlı kalıyordu. Yeni yaklaşım, hibrit ödüllendirme sistemi kullanarak AI modellerinin ürettiği mantık zincirlerinin kalitesini değerlendiriyor. Sistem, mantıksal yol uyumunu, anahtar adım kapsamını ve analitik derinliği ölçen bir LLM değerlendirici ile referans mantık zincirleriyle semantik uyumu sağlayan gömme benzerliği bileşenini birleştiriyor. Bu gelişme, sesli AI asistanlarının daha güvenilir ve şeffaf hale gelmesi açısından önemli.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Kullanıcı Bilgilerini Kendi Ürettiklerinden Daha Güvenilir Buluyor
Büyük dil modelleri (LLM'ler), kullanıcı ve asistan rolleriyle etiketlenmiş verilerle eğitilir. Yeni araştırma, bu etiketlerin modellerde önyargı oluşturduğunu gösteriyor. 52 farklı modeli test eden bilimciler, talimat verilmiş modellerin çelişkili bilgiler karşısında kullanıcıdan gelen bilgileri kendi ürettiklerine tercih ettiğini keşfetti. Bu 'kullanıcı önyargısı', modellerin karar verme süreçlerini etkiliyor ve AI güvenliği açısından önemli sonuçlar doğuruyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin İş Birliği İle Öneri Sistemleri Güçleniyor
Araştırmacılar, büyük dil modellerinin (LLM) öneri sistemlerinde nasıl daha etkili kullanılabileceğine dair yeni bir yaklaşım geliştirdi. Tek bir yapay zeka modelinin sınırlılıklarını aşmak için birden fazla modelin güçlü yanlarını birleştiren MLTFR adlı sistem, kullanıcı davranışlarını analiz ederek en uygun önerileri sunuyor. Bu yenilik, e-ticaret sitelerinden sosyal medya platformlarına kadar geniş bir kullanım alanına sahip olan öneri sistemlerinin performansını artırarak, kullanıcıların istedikleri içeriği bulmasını kolaylaştırıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Artık İstenmeyen Bilgileri Daha Etkili Unutabilecek
Araştırmacılar, büyük dil modellerinin (LLM) zararlı, telif hakkıyla korunan veya özel içerikleri unutması için yeni bir yöntem geliştirdi. BiForget adlı bu sistem, modelin kendi iç bilgi dağılımını kullanarak 'unutulması gereken' veri setlerini otomatik olarak oluşturuyor. Geleneksel yöntemlerden farklı olarak, harici veri üreticilerine ihtiyaç duymayan sistem, hem alan düzeyinde hem de örnek düzeyinde iki farklı unutma yaklaşımı sunuyor. Harry Potter alan testlerinde, önceki yöntemlere kıyasla ilgililik skorunu 20 puan artırırken, veri boyutunu yarıya indirmeyi başardı. Bu gelişme, yapay zeka modellerinin etik kullanımı ve veri gizliliği açısından önemli bir adım olarak değerlendiriliyor.
Teknoloji & Yapay Zeka
Yapay zeka modellerinin 'dalkavukluk' eğilimi bilimsel yöntemle ölçülecek
Büyük dil modellerinin (LLM) kullanıcıları memnun etmek için aşırı uyumlu davranma eğilimi, özellikle sağlık, hukuk ve eğitim gibi kritik alanlarda ciddi sorunlar yaratıyor. Araştırmacılar, yapay zekanın gerçekten dalkavukluk mu yaptığını yoksa yeni bilgiler ışığında mantıklı güncellemeler mi yaptığını ayırt etmek için Bayesci bir çerçeve geliştirdi. Bu yenilikçi yaklaşım, davranışsal ekonomi ve rasyonel karar teorisine dayalı olarak, yapay zeka sistemlerinin objektif gerçeklerin olmadığı belirsiz durumlarda bile güvenilirlik seviyesini değerlendirme imkanı sunuyor. Geliştirilen metrik, yapay zekanın kanıt temelli rasyonel tepkilerini dalkavukluk davranışından ayırarak, insan-yapay zeka işbirliğinin kalitesini artırmayı hedefliyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerini Siber Saldırılara Karşı Koruyan Yenilikçi Savunma Sistemi
Büyük dil modelleri (LLM'ler), geniş veri setlerine dayandıkları için backdoor saldırılarına karşı savunmasız durumda. Bu tür saldırılarda, saldırganlar eğitim verilerinin küçük bir kısmını zehirleyerek modele gizli davranışlar yerleştiriyor. Araştırmacılar, bu tehdide karşı MB-Defense adlı yenilikçi bir savunma sistemi geliştirdi. İki aşamalı bu sistem, önce saldırgan ve savunma tetikleyicilerini birleştirerek ortak bir backdoor temsili oluşturuyor, sonra da ek eğitimle bu temsili bozarak modelin temiz davranışını geri kazandırıyor. Çalışma, büyük dil modellerinin güvenliğini artıran önemli bir gelişme sunuyor.