...
"LLM" için 222 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
222 haber
Teknoloji & Yapay Zeka
ProtoCycle: Yapay Zeka ile Protein Tasarımında Yeni Dönem
Araştırmacılar, doğal dil talimatlarıyla protein tasarlayabilen yenilikçi bir yapay zeka sistemi geliştirdi. ProtoCycle adlı bu sistem, büyük dil modellerini (LLM) kullanarak protein mühendisliğinde insan benzeri düşünce süreçlerini taklit ediyor. Geleneksel yaklaşımların aksine, sistem planla-uygula döngüsü içinde çalışarak, araçlardan aldığı geri bildirimlerle planlarını sürekli revize ediyor. Bu yaklaşım, hem dil uyumluluğu hem de protein katlanabilirliği açısından başarılı sonuçlar veriyor. Çalışma, protein tasarımında yapay zekanın kullanımında önemli bir adım olarak değerlendiriliyor ve gelecekte tıp, biyoteknoloji gibi alanlarda devrim yaratabilecek uygulamalara kapı açıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin Hafızasını Ölçmenin Yeni Yolu Keşfedildi
Araştırmacılar, büyük dil modellerinin (LLM) eğitim verilerini ne kadar ezberlediklerini ölçmek için yeni bir yöntem geliştirdi. Veri sıkıştırılabilirliği üzerine kurulu bu yöntem, modellerin hafızalarını ilk kez güvenilir şekilde sayısallaştırmayı mümkün kılıyor. Çalışmada keşfedilen 'Entropi-Ezberleme Doğrusallığı' yasası, veri entropisinin ezberleme skorlarıyla doğrusal ilişki sergilediğini gösteriyor. Bu buluş, yapay zeka modellerinin şeffaflığı ve güvenilirliği açısından önemli bir adım teşkil ediyor. Özellikle telif hakları ve veri gizliliği konularında artan endişeler göz önüne alındığında, modellerin hangi bilgileri ezberleyip yeniden üretebileceğini anlamak kritik önem taşıyor.
Teknoloji & Yapay Zeka
Yapay Zeka Aşk Dolandırıcılığında Nasıl Kullanılıyor? Kapsamlı Araştırma
Dünya çapında milyarlarca dolarlık zararla sonuçlanan romantik dolandırıcılık operasyonlarında yapay zekanın rolü araştırıldı. Büyük dil modellerinin (LLM) bu suç organizasyonlarında nasıl kullanıldığını inceleyen kapsamlı çalışma, 145 içeriden kişi ve 5 mağdurla yapılan görüşmeleri içeriyor. Araştırma, dolandırıcı grupların %87'sinin sistematik konuşma görevleri kullandığını ve bu görevlerin otomasyona oldukça uygun olduğunu ortaya koyuyor. Çalışmada ayrıca yapay zeka destekli dolandırıcı ajanlarla gerçek operatörlerin performansı karşılaştırılıyor ve mevcut güvenlik filtrelerinin etkinliği değerlendiriliyor.
Teknoloji & Yapay Zeka
Büyük Dil Modelleri İçin Bulut ve Dağıtık Sistem Mimarileri
Yapay zeka alanında devrim yaratan büyük dil modellerinin (LLM) hesaplama gereksinimleri, geleneksel sistemlerin kapasitesini aşıyor. Araştırmacılar, bu modellerin eğitimi ve çıkarım süreçlerinde karşılaşılan zorlukları aşmak için bulut-native ve dağıtık sistem mimarilerinin kritik önemini ortaya koyuyor. ChatGPT benzeri modellerin artan popülaritesi, ölçeklenebilir ve verimli altyapı çözümlerine olan ihtiyacı daha da artırıyor. Yeni araştırma alanları arasında sunucusuz çıkarım, kuantum hesaplama ve federatif öğrenme gibi teknolojiler, gelecekteki LLM innovasyonlarının temelini oluşturuyor. Bu gelişmeler, yapay zekanın daha geniş kitlelere ulaşabilmesi ve pratik uygulamalarda daha etkili kullanılabilmesi açısından büyük önem taşıyor.
Teknoloji & Yapay Zeka
Büyük Dil Modelleri İnsan Gibi Mantık Yürütemiyor
Yapay zeka alanında önemli bir araştırma, büyük dil modellerinin (LLM) insan benzeri mantık yürütme konusundaki eksiklerini ortaya çıkardı. Türkiye'de yapılan çalışma, belirsiz cümle yapılarında insanların dünya bilgisini dilbilgisi kurallarıyla başarılı şekilde birleştirirken, gelişmiş AI modellerinin bu konuda yetersiz kaldığını gösterdi. Araştırmacılar, Türkçe'deki özel cümle yapılarını kullanarak hem insanlarla hem de AI modelleriyle testler yaptı. Sonuçlar, insanların mantıklı seçimleri kolayca yaparken, dil modellerinin aynı başarıyı gösteremediğini ortaya koydu. Bu bulgu, AI'nın dil anlama yeteneklerinin görründüğünden daha sınırlı olduğunu ve gerçek dünya bilgisini etkili kullanamadığını işaret ediyor.
Teknoloji & Yapay Zeka
DORA Explorer: Eğitim Gerektirmeden Yapay Zeka Ajanlarının Keşif Yeteneklerini Artırıyor
Büyük dil modelleri (LLM'ler) karar verme süreçlerinde hâlâ çeşitliliği sağlamakta zorlanıyor ve bu durum yetersiz keşif, yerel optimumlarda takılma gibi sorunlara yol açıyor. Araştırmacılar, Multi-Armed Bandit ve metin macera oyunları gibi ortamlarda mevcut çözüm stratejilerinin yetersiz kaldığını tespit etti. Sıcaklık ölçekleme gibi yöntemler token düzeyinde rastgelelik sağlasa da sekans düzeyinde yeterli çeşitliliği üretemiyor. Chain-of-Thought ve Tree-of-Thought gibi popüler yöntemler de güçlü keşif için yetersiz kalıyor. Bu sorunları çözmek için geliştirilen DORA Explorer, eğitime ihtiyaç duymayan ve eylem çeşitliliği odaklı sıralama yapan yenilikçi bir çerçeve sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modelleri Sosyal Statüye Göre Ayrımcılık Yapıyor
ABD federal kurumlarında halkın görüşlerini değerlendirmek için kullanılan büyük dil modellerinin (LLM) eşit davranıp davranmadığını test eden yeni bir araştırma şaşırtıcı sonuçlar ortaya çıkardı. Cornell Üniversitesi araştırmacıları, aynı yorumu farklı meslek gruplarından kişilere atfederek 8 farklı yapay zeka modelini test etti. 182 halk yorumu üzerinde yapılan deneyler, 106.000'den fazla özet analiz edildi. Sonuçlar gösterdi ki yapay zeka modelleri, aynı yorumu sokak satıcısına atfettiklerinde, finansal analistle karşılaştırıldığında daha basit dil kullanıyor ve orijinal anlamın daha azını koruyor. Irksal ve cinsiyet farklılıkları tutarlı bir etki göstermezken, sosyoekonomik statü belirgin bir ayrımcılık faktörü olarak ortaya çıktı. Bu bulgular, demokratik karar alma süreçlerinde yapay zekanın kullanımında ciddi eşitlik sorunlarına işaret ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Ajanlarındaki Hataları Kendini Onaran Sistem: SelfHeal
Büyük dil modelleri (LLM) tabanlı yapay zeka ajanları, yazılım geliştirmede devrim yaratırken beraberinde yeni hata ayıklama zorluklarını da getiriyor. Araştırmacılar, Stack Overflow, GitHub ve HuggingFace forumlarından topladıkları verilerle LLM ajanlarındaki hata türlerini analiz etti. Çalışma sonucunda, bu ajanların hatalarını otomatik olarak tespit edip düzeltebilen 'SelfHeal' adlı çok ajanlı sistem geliştirildi. Bu sistem, geliştiricilerin karmaşık yapay zeka uygulamalarında karşılaştıkları sorunları çözme konusunda önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Sistemlerinde Yeni Güvenlik Açığı: Bellek Hatalarıyla Sessiz Manipülasyon
Araştırmacılar, büyük dil modellerinin (LLM) hizmet verdiği sistemlerde kritik bir güvenlik açığı keşfetti. vLLM gibi popüler sistemlerde kullanılan paylaşımlı önbellek bloklarının, bit düzeyindeki hatalarla manipüle edilebileceği ortaya çıktı. Bu saldırı yöntemi, GPU belleğindeki Rowhammer saldırılarına benzer şekilde çalışıyor ancak daha sinsi bir yapıya sahip. Saldırının üç temel özelliği tespit edildi: manipüle edilmiş çıktıların normal yanıtlardan ayırt edilememesi, sadece hedeflenen prefix'i paylaşan isteklerin etkilenmesi ve zaman içinde hasarın birikmesi. Bu durum, yapay zeka sistemlerinin güvenilirliği açısından yeni bir tehdit oluşturuyor çünkü saldırı tespit edilmesi zor ve kalıcı etkiler yaratıyor.
Teknoloji & Yapay Zeka
AI Modelleri Artık Kablosuz Ağ Kalitesine Göre Akıllıca Karar Verebilecek
Araştırmacılar, büyük dil modellerinin (LLM) cihaz ve kenar sunucu arasında dağıtık çalışmasını iyileştiren yenilikçi bir yöntem geliştirdi. WISV adlı bu sistem, geleneksel kelime bazlı doğrulama yerine anlamsal değerlendirme kullanarak kablosuz bağlantı kalitesini dikkate alıyor. Sistem, anlık kanal durumu bilgilerini AI modelinin gizli katmanlarındaki yüksek boyutlu verilerle birleştirerek daha akıllı kararlar veriyor. Bu yaklaşım, değişken kablosuz koşullarda daha uzun kabul edilen diziler ve daha az etkileşim turu ile performansı artırıyor. Çalışma, edge computing ve 5G/6G ağlarının yaygınlaşmasıyla birlikte AI uygulamalarının daha verimli çalışması için önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay Zeka Modellerinin 'Yalan Dedektörü' Testinden Geçti: Sonuçlar Şaşırtıcı
Araştırmacılar, büyük dil modellerinin (LLM) güvenilirliğini ölçmek için klinik psikolojide kullanılan geçerlilik ölçeklerini uyguladı. 20 farklı yapay zeka modeli 524 maddelik bir teste tabi tutuldu ve altı farklı geçerlilik indeksi kullanılarak değerlendirildi. Çalışmanın bulguları, dört modelin tamamen geçersiz, iki modelin ise yükseltilmiş risk seviyesinde olduğunu gösterdi. Geçerli profil gösteren modeller, sorulara karşı duyarlı güven seviyeleri sergilerken, geçersiz profilli modeller bu özelliği göstermedi. Özellikle düşünce zinciri eğitimi alan modellerde iki farklı yanıt bozukluğu türü gözlemlendi.