...
"Claude" için 25 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
25 haber
Teknoloji & Yapay Zeka
Ukraynaca'nın Matematik Karmaşıklığı İlk Kez Ölçüldü
Claude Shannon'ın 1951'de İngilizce için geliştirdiği ünlü entropi ölçüm yöntemi, ilk kez Ukraynaca'ya uygulandı. Sosyal medya kanalları üzerinden toplanan 184 gönüllünün katılımıyla gerçekleştirilen deneyimde, katılımcılardan cümlelerdeki sonraki karakteri tahmin etmeleri istendi. Bu çalışma, bir dilin öngörülebilirlik seviyesini ve yapısal karmaşıklığını matematiksel olarak ifade eden entropi değerini hesaplamayı amaçlıyor. Ukraynaca için elde edilen sonuçlar, günümüzün büyük dil modellerinin performansıyla da karşılaştırıldı. Shannon'ın öncü metodolojisi, daha önce sadece İngilizce ve İbranice için uygulanmıştı, bu nedenle çalışma Ukraynaca'nın dilbilimsel özelliklerini anlamamız açısından önemli bir ilk.
Teknoloji & Yapay Zeka
Yapay Zeka Güvenliğinde Yeni Çözüm: AttnTrace ile Hızlı Tehdit Analizi
Araştırmacılar, büyük dil modellerindeki güvenlik açıklarını tespit etmek için AttnTrace adlı yeni bir sistem geliştirdi. Gemini ve Claude gibi gelişmiş yapay zeka sistemlerinde prompt injection saldırıları ve bilgi manipülasyonunu izleyebilen bu teknoloji, mevcut çözümlerden 100 kat daha hızlı çalışıyor. Özellikle RAG sistemleri ve otonom ajanlar gibi karmaşık AI uygulamalarında güvenliği artırmayı hedefleyen sistem, saldırı sonrası analiz ve güvenilirlik değerlendirmesi açısından önemli bir gelişme sunuyor. Yapay zeka güvenliğinin kritik hale geldiği bu dönemde, AttnTrace'in sunduğu hız ve doğruluk avantajı, AI sistemlerinin daha güvenli kullanımına katkı sağlayabilir.
Teknoloji & Yapay Zeka
Multimodal AI modelleri temel matematikte neden başarısız oluyor?
Stanford araştırmacıları, gelişmiş çok modallı yapay zeka modellerinin görsel, işitsel ve metin tabanlı matematik problemlerinde beklenmedik zorluklarla karşılaştığını ortaya çıkardı. GPT-4V, Claude-3 ve Gemini gibi modeller, sayıları farklı formatlarda algılayabilmesine rağmen çok basamaklı çarpma işlemlerinde ciddi hatalar yapıyor. Araştırma, aynı matematik probleminin rakam, kelime, görsel veya ses formatında sunulmasına göre model performansının dramatik şekilde değiştiğini gösteriyor. Bu bulgular, AI modellerinin gerçek aritmetik yeteneklerinin sanıldığından çok daha sınırlı olduğunu ve farklı modaliteler arasında tutarsız davranış sergilediklerini işaret ediyor.
Tıp & Sağlık
Yapay Zeka Modellerinin Tıbbi Görüntü Analiz Yeteneği Sınırlı Kaldı
Araştırmacılar, yapay zeka modellerinin gerçek klinik ortamlarda karşılaştıkları çoklu görüntü analizinde ne kadar başarılı olduklarını test etti. MedThinkVQA adlı yeni benchmark, her vakada ortalama 6,62 görüntü içeren 8.067 tıbbi durumu kapsıyor. Çalışmanın sonuçları, en gelişmiş AI modellerinin bile bu konuda zorlandığını ortaya koydu. En iyi performans gösteren Claude ve GPT modelleri %55-57 doğruluk oranına ulaşırken, açık kaynak modeller daha da geride kaldı. Bu bulgular, AI'nın tıp alanındaki uygulamalarında hâlâ önemli sınırları olduğunu gösteriyor.
Teknoloji & Yapay Zeka
Yapay Zeka Pazarlarında Dikey Tekelleşme: Yeni Rekabet Dinamikleri
Stanford araştırmacıları, yapay zeka sektöründe rekabetin model eğitiminden çıkarım süreçlerine kaydığını gösteren matematiksel bir model geliştirdi. Araştırma, büyük teknoloji şirketlerinin rakiplerini nasıl dışladığını açıklıyor. Model, hizmet kalitesi ayrımcılığı, yönlendirme önyargısı ve katmanlı erişim kısıtlamaları olmak üzere üç temel mekanizma tanımlıyor. Özellikle gecikme, işlem hızı ve özellik erişimi üzerinden yapılan ayrımcılığın matematiksel dinamikleri inceleniyor. Anthropic'in Claude modellerindeki erişim kısıtlamaları örnek vaka olarak ele alınıyor. Çalışma, oyun teorisi kullanarak bu rekabet stratejilerinin piyasa dengesi üzerindeki etkilerini hesaplıyor ve AI pazarlarındaki güç dengesizliklerini ortaya koyuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Ajanları İçin Yeni Eğitim Yöntemi: StepPO
Araştırmacılar, OpenClaw ve Claude Code gibi gelişmiş yapay zeka ajanlarının performansını artırmak için StepPO adında yeni bir eğitim yöntemi geliştirdi. Bu yaklaşım, büyük dil modellerinin çok adımlı görevlerde karar verme ve araç kullanma yeteneklerini iyileştirmek için tasarlandı. Geleneksel pekiştirmeli öğrenme yöntemlerinin aksine, StepPO gecikmiş ödüller ve uzun bağlamlarla başa çıkabilen 'ajantik' yeteneklere odaklanıyor. Bu gelişme, yapay zeka ajanlarının daha karmaşık görevleri bağımsız olarak yerine getirebilmesi için önemli bir adım teşkil ediyor.
Teknoloji & Yapay Zeka
Yapay zeka kendini öğretiyor: Claude kodlama asistanı kendi eğitim sistemini geliştirdi
Araştırmacılar, Claude Code adlı yapay zeka kodlama asistanının kendini öğretebilen yenilikçi bir eğitim sistemi geliştirdi. 'cc-self-train' adı verilen bu sistem, öğrencilerin seviyesine göre öğretmen rolünü değiştiren, öğrenme kalitesini izleyerek destek seviyesini ayarlayan ve pratik projeler üzerinden etkileşimli öğrenme sağlayan bir yapıya sahip. Sistem, geleneksel dokümantasyon ve dağınık kaynaklarla öğrenme zorluğuna çözüm getiriyor. Yapay zeka destekli eğitimde 'Kademeli Sorumluluk Devri' modelini uygulayan bu yaklaşım, teknoloji eğitiminin geleceği için önemli ipuçları sunuyor.
Teknoloji & Yapay Zeka
Küçük yapay zeka modeli, dev rakiplerini araştırma alanında geride bıraktı
Araştırmacılar, yapay zeka modellerini araştırma görevlerinde eğitmenin maliyetli ve karmaşık olma sorununa çözüm getiren yeni bir sistem geliştirdi. LiteResearcher adlı bu sistem, gerçek dünya aramalarını taklit eden sanal bir ortam yaratarak, küçük modellerin daha verimli eğitilmesini sağlıyor. Sadece 4 milyar parametreli model, Tongyi DeepResearch ve Claude-4.5 Sonnet gibi ticari devleri geride bırakarak sektöre yön verecek sonuçlar elde etti. Bu başarı, yapay zekanın araştırma yeteneklerinin geliştirilmesinde yeni bir dönemi işaret ediyor.
Teknoloji & Yapay Zeka
Büyük Dil Modelleri Siber Güvenlik Testlerinde Sınırlarını Zorladı
Araştırmacılar, 7 farklı şirketten 10 büyük dil modelini siber güvenlik saldırı görevlerinde test etti. NYU'nun 200 zorlu siber güvenlik problemini çözen bu modeller arasında Claude 4.5 Opus %59 başarı oranıyla öne çıktı. Çalışma, yapay zeka sistemlerinin penetrasyon testleri ve siber güvenlik açığı keşfinde ne kadar etkili olduğunu gösterdi. Özel olarak hazırlanan Kali Linux ortamında 100'den fazla güvenlik aracı kullanılan testlerde, modellerin siber saldırı senaryolarını çözme kabiliyetleri ölçüldü. Bu araştırma, AI'nın siber güvenlik alanındaki potansiyelini ve risklerini anlamamız açısından kritik veriler sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka Sistemleri Nasıl Aldatılır? 331 Çevrelik Dev Veri Seti Yayınlandı
Araştırmacılar, yapay zeka sistemlerinin nasıl aldatılabileceğini gösteren kapsamlı bir veri seti yayınladı. Terminal Wrench adlı bu veri seti, 331 farklı test ortamında gerçekleştirilen 3.632 hack girişimini içeriyor. Claude, Gemini ve GPT gibi gelişmiş AI modelleri üzerinde test edilen bu çalışma, sistemlerin ödül mekanizmalarının nasıl manipüle edilebildiğini ortaya koyuyor. Veri seti, basit çıktı sahteciliğinden karmaşık sistem seviyesi saldırılara kadar geniş bir yelpazede exploit tekniklerini barındırıyor. Bu araştırma, AI güvenliğinin geliştirilmesi için kritik veriler sunuyor.
Teknoloji & Yapay Zeka
Yapay Zeka vs Klasik Yöntemler: Hiperparametre Optimizasyonunda Hangisi Üstün?
Stanford araştırmacıları, büyük dil modellerinin (LLM) klasik hiperparametre optimizasyon algoritmalarına karşı performansını test etti. Sonuçlar, Claude Opus ve Gemini gibi en gelişmiş AI modelleri bile CMA-ES ve TPE gibi geleneksel yöntemleri geçemediğini gösterdi. LLM'ler deneme süreçleri arasında optimizasyon durumunu takip etmekte zorlanırken, klasik yöntemler alan bilgisinden yoksun kalıyor. Bu sorunu çözmek için araştırmacılar, her iki yaklaşımın güçlü yanlarını birleştiren 'Centaur' adlı hibrit sistem geliştirdi.