“açık kaynak” için sonuçlar
107 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
LEDDS: GPU'larda Granül Akışları ve Akışkan-Parçacık Simülasyonları
Araştırmacılar, granül akışları ve akışkan-parçacık etkileşimlerini simüle etmek için LEDDS adlı yeni bir açık kaynak framework geliştirdi. Bu sistem, karmaşık hesaplamalı fizik problemlerini GPU'larda verimli şekilde çözmek için algoritmik primitifler kullanıyor. LEDDS, Lattice Boltzmann ve Discrete Element Method (LBM-DEM) yöntemlerini birleştirerek tam bağlı simülasyonlar gerçekleştiriyor. Framework, komşu arama, çarpışma tespiti ve akışkan-parçacık bağlantısı gibi tüm işlemleri taşınabilir primitifler dizisi olarak ifade ediyor. Bu yaklaşım, cihaza özel kod yazma ihtiyacını ortadan kaldırarak, araştırmacılara daha esnek ve erişilebilir bir simülasyon ortamı sunuyor.
Termodinamikte Entropi Hesaplamalarına Yeni Python Kütüphanesi: pyzentropy
Araştırmacılar, termodinamik hesaplamalarda entropi kavramını daha etkin kullanabilmek için pyzentropy adlı açık kaynak Python kütüphanesini geliştirdi. Entropi kavramının özyinelemeli özelliği bilgi teorisinde yaygın kullanılsa da, kavramın doğduğu termodinamik alanında nadiren faydalanılıyor. Bu yeni araç, ilk prensiplerden hareketle termodinamik hesaplamalar yapabilmeyi sağlıyor. Kütüphane, Fe₃Pt alaşımı üzerinde test edilerek başarılı sonuçlar elde edildi. Araştırmacılar, 12 atomlu süper hücre ve farklı manyetik konfigürasyonlar kullanarak Invar davranışını yeniden ürettiler. Aynı zamanda termal genleşme katsayısı, ısı kapasitesi ve bulk modülünün sıcaklıkla anormal değişimini de doğru şekilde modellediler. Çalışma kapsamında T-V ve P-T faz diyagramları da deneysel gözlemlerle uyumlu olarak elde edildi.
Yazılım Geliştiriciler İçin Tek Merkezli AI Destekli Çalışma Ortamı
Günümüz yazılım geliştiricileri GitHub, Slack, Jira gibi 5-10 farklı araç arasında sürekli geçiş yapmak zorunda kalıyor. Bu durum konsantrasyonu bozuyor ve verimliliği düşürüyor. Araştırmacılar, tüm geliştirici araçlarını tek bir arayüzde toplayan 'Workstream' adlı açık kaynaklı platformu geliştirdi. Sistem, kod inceleme süreçlerini AI ile destekleyerek, geçmiş verilerden öğrenerek ve depoların AI için hazır olup olmadığını puanlayarak geliştiricilerin işini kolaylaştırıyor. Bu yenilikçi yaklaşım, yazılım geliştirme süreçlerinde önemli bir adım olarak değerlendiriliyor.
Yapay Zeka Modellerinde Ayar Seçimi Model Seçiminden 5 Kat Daha Önemli
Açık kaynak kodlu büyük dil modellerinin donanım tasarımında kullanımını inceleyen yeni araştırma, hangi modelin kullanıldığından çok nasıl yapılandırıldığının önemli olduğunu ortaya koyuyor. 26 farklı modeli 108 farklı yapılandırma ile test eden çalışmada, aynı modelin en iyi ve en kötü ayarları arasında %25,5'e kadar performans farkı gözlendi. Bu fark, farklı model aileleri arasındaki ortalama performans farkından 5 kat daha büyük. Bulgular, yapay zeka araştırmalarında model karşılaştırmalarının yanında konfigürasyon optimizasyonunun da kritik önemde olduğunu gösteriyor.
Tıbbi yapay zeka için yeni standart: VIDS ile veri kalitesi denetimi
Tıbbi görüntüleme alanında yapay zeka geliştirme süreçleri, kaliteli ve güvenilir veri setlerine bağımlıdır. Ancak mevcut standartlar, veri yapısı, açıklama kaynağı ve makine öğrenmesi uygunluğunu tek bir çerçevede doğrulayamıyor. Araştırmacılar, bu sorunu çözmek için VIDS (Doğrulanmış Görüntüleme Veri Seti Standardı) adlı yeni bir açık kaynak spesifikasyon geliştirdi. VIDS, tıbbi görüntü veri setlerinin kim tarafından, ne zaman, hangi araçlarla ve hangi kalite standartlarıyla açıklandığını sistematik olarak takip ediyor. Sistem, 21 farklı makine-uygulanabilir doğrulama kuralı içeriyor ve iki farklı uyumluluk profili sunuyor. Bu standart, tıbbi AI araştırmalarında veri kalitesini artırarak daha güvenilir algoritma geliştirme süreçlerini mümkün kılacak.
Yapay Zeka Modellerinin Bilgi Derinliği Sorunu: Buzdağının Görünmeyen Yüzü
Araştırmacılar, büyük dil modellerinin görünüşte basit sorularda ciddi zorlanmalar yaşadığını keşfetti. KnowledgeBerg adlı yeni benchmark çalışması, bu modellerin sistematik bilgi kapsamı ve kompozisyonel muhakeme konularında büyük eksiklikler bulunduğunu ortaya koyuyor. 10 farklı alanda ve 17 dilde yapılan testlerde, açık kaynak modellerin evren numaralandırmasında sadece %5-37 başarı oranı gösterdiği belirlendi. Bu bulgular, AI modellerinin 'buzdağının görünen kısmı' gibi yüzeysel yanıtlar verebildiğini ancak derinlemesine sistematik düşünmede yetersiz kaldığını gösteriyor.
Telekomünikasyon için Özel AI Değerlendirme Sistemi Geliştirildi
Araştırmacılar, telekomünikasyon sektöründeki yapay zeka uygulamaları için özel olarak tasarlanmış ilk kapsamlı değerlendirme sistemi olan TeleEmbedBench'i geliştirdi. Bu sistem, telekomünikasyon alanındaki yoğun kısaltma kullanımı ve karmaşık standart metinleri nedeniyle genel amaçlı AI modellerinin yetersiz kaldığı durumları ele alıyor. O-RAN Alliance spesifikasyonları, 3GPP belgeleri ve srsRAN açık kaynak kodlarından oluşan üç farklı veri setinde 9.000 soru-metin çifti içeren benchmark, telekomünikasyon şirketlerinin AI sistemlerini daha doğru şekilde değerlendirmesine olanak sağlıyor.
Yapay Zeka Artık Matematik Animasyonları da Oluşturuyor
Araştırmacılar, büyük dil modellerinin metin açıklamalarından matematik animasyonları oluşturabilmesi için yeni bir eğitim sistemi geliştirdi. ManimTrainer ve ManimAgent adlı bu sistemler, denetimli öğrenme ile pekiştirmeli öğrenmeyi birleştirerek, yapay zekanın karmaşık matematiksel kavramları görselleştirmesini sağlıyor. Sistem, metin açıklamalarını önce koda, sonra da videoya dönüştürüyor. 17 farklı açık kaynak modeli test eden çalışma, bu alanda ilk kapsamlı araştırma olma özelliği taşıyor. Teknoloji, eğitim içeriği üretiminde ve bilimsel görselleştirmede önemli ilerlemeler sunuyor.
Yapay Zeka Ses Üretiminde Yeni Sınavı: 10 Dilde Komut Anlama Testi
Araştırmacılar, yapay zekanın metin okuyarak ses üretme yeteneğini değerlendiren kapsamlı bir test sistemi geliştirdi. MINT-Bench adı verilen bu benchmark, sistemlerin farklı dillerde verilen komutları ne kadar iyi anlayıp uygulayabildiğini ölçüyor. 10 farklı dilde yapılan testler, mevcut ticari sistemlerin henüz mükemmel olmadığını, açık kaynak modellerin ise yerel dillerde bazen ticari rakiplerini geçebildiğini ortaya koydu. Bu çalışma, ses teknolojilerinin gelişiminde önemli bir adım olarak görülüyor.
AI Görsel Değerlendirme Sistemlerinin Güvenilirliğini Test Eden Yeni Yöntem
Araştırmacılar, yapay zekanın metin-görsel dönüştürme sistemlerini değerlendiren ölçütlerin ne kadar güvenilir olduğunu test edebilen CROC adlı yeni bir framework geliştirdi. Bu sistem, mevcut değerlendirme yöntemlerinin zayıflıklarını sistematik olarak ortaya çıkarıyor ve 1 milyondan fazla test vakası içeren kapsamlı bir veri seti sunuyor. Geliştirilen CROCScore metriği, açık kaynak yöntemler arasında en iyi performansı gösterdi. Bu çalışma, AI'ın görsel üretim kalitesini daha doğru ölçebilmek için kritik bir adım teşkil ediyor.
OpenVLThinkerV2: Çok Modalli Yapay Zeka Modellerinde Yeni Eğitim Yaklaşımı
Araştırmacılar, görsel görevlerde çalışan yapay zeka modellerinin eğitiminde karşılaşılan temel zorluklara çözüm getiren yeni bir yöntem geliştirdi. Gaussian GRPO (G²RPO) adı verilen bu yaklaşım, farklı görsel görevlerdeki aşırı varyans sorununu ve detaylı algı ile çok adımlı mantık yürütme arasındaki dengeyi sağlama zorluğunu ele alıyor. Yöntem, avantaj dağılımını standart normal dağılıma zorla yakınlaştırarak görevler arası gradient eşitliğini teorik olarak garanti ediyor. Bu gelişme, açık kaynak çok modalli modellerin gelişiminde önemli bir adım olarak değerlendiriliyor.
Büyük Dil Modellerinde Token Adaletsizliği: Latin Olmayan Alfabeler Dezavantajda
Araştırmacılar, ChatGPT gibi büyük dil modellerinin farklı dilleri işlerken ciddi bir adaletsizlik sergilediğini ortaya koydu. Latin alfabesi dışındaki yazı sistemlerini kullanan diller, aynı anlamı ifade etmek için çok daha fazla token tüketiyor. Bu durum, bu dillerdeki kullanıcılar için daha yüksek maliyet ve yavaş yanıt süresi anlamına geliyor. Token parçalanması olarak adlandırılan bu sorun, modern açık kaynak dil modellerinde bile devam ediyor. Çalışma, kelime dağarcığı genişletme yoluyla bu soruna çözüm arayan yeni bir yorumlanabilirlik tabanlı yaklaşım sunuyor.
Yapay Zeka, Geri Çekilmiş Bilimsel Makaleleri Ayırt Edemiyor
Büyük Dil Modelleri (LLM), literatür tarama ve özetleme konularında faydalı olabilir, ancak geri çekilmiş makaleler konusunda ciddi sorunlar yaşıyor. Yeni bir araştırma, üç farklı açık kaynak yapay zeka modelinin, geri çekilmiş 161 yüksek profilli makaleyi tanıyıp tanıyamadığını test etti. Sonuçlar oldukça endişe verici: modeller vakaların %80'inden fazlasında geri çekilmiş makalelerin hâlâ geçerli olduğunu iddia etti. Bu durum, yapay zeka sistemlerinin bilimsel literatürde güvenilirlik kontrolü yapamadığını ve potansiyel olarak yanlış bilgileri yaygınlaştırabileceğini gösteriyor. Araştırmacılar için bu bulgu, yapay zeka destekli literatür taramalarında ekstra dikkat gerektiğini ortaya koyuyor.
Yapay Zeka Kodlama Modelleri Karşılaştırması: Gerçek Uygulamada Beklenmedik Sonuçlar
Araştırmacılar, beş farklı açık kaynak kodlama yapay zekası modelini React Native mobil uygulama geliştirme görevinde test etti. Çalışmada Kimi-K2.5, GLM-5.1, Qwen3-Coder-480B ve DeepSeek-V3.2 modelleri NVIDIA GH200 donanımında karşılaştırıldı. Şaşırtıcı şekilde, teorik performans sıralamaları gerçek dünya görevlerindeki başarıyı öngöremedi. En düşük kaliteli sıkıştırmaya sahip Kimi-K2.5 modeli, SWE-Bench testlerinde daha yüksek puan alan rakiplerini geride bırakarak en eksiksiz ve kurallara uygun kodu üretti. Araştırma, yapay zeka kodlama araçlarının değerlendirilmesinde laboratuvar testleri ile gerçek dünya performansı arasındaki önemli farkları ortaya koyuyor.
Linux Sistemleri İçin Tek Çatıda Güvenlik Değerlendirme Sistemi Geliştirildi
Araştırmacılar, Linux sistemlerinin güvenlik durumunu değerlendirmek için birden fazla güvenlik aracını tek bir çerçevede birleştiren Unified Compliance Aggregator (UCA) sistemini geliştirdiler. Modern bilgisayar sistemlerinin güvenliğini değerlendirmek genellikle farklı alanlarda uzmanlaşmış çok sayıda araç kullanmayı gerektiriyor. Bu araçlar yapılandırma uyumluluğu, dosya bütünlüğü ve güvenlik açığı tespiti gibi farklı konulara odaklanıyor ancak çıktılarını birlikte yorumlamak oldukça zor. Yeni framework, Lynis, OpenSCAP, AIDE, Tripwire ve Nmap NSE gibi açık kaynak güvenlik araçlarının çıktılarını 0-100 ölçeğinde tek bir bileşik puana dönüştürüyor. Sistem ayrıca dosya bütünlüğü ölçümleri için logaritmik puanlama modeli kullanarak önceki doğrusal yaklaşımların sınırlarını aşmayı hedefliyor.
Açık kaynak yapay zeka modelleri oltalama saldırılarına karşı savunmasız
Araştırmacılar, açık kaynak büyük dil modellerinin (LLM) oltalama saldırılarına karşı ciddi güvenlik açıkları taşıdığını ortaya koydu. GuardPhish adlı kapsamlı çalışmada, 70 binden fazla gerçek oltalama örneği kullanılarak 8 farklı model test edildi. Sonuçlar, modellerin oltalama girişimlerini %96 oranında tespit edebildiği halde, aynı içerikleri üretme konusunda başarısız olduğunu gösterdi. Bu durum, özellikle çevrimdışı ortamlarda kullanılan AI sistemlerinin güvenlik zafiyetlerini gözler önüne seriyor. Çalışma, web, e-posta, SMS ve sesli saldırı senaryolarını kapsayan geniş bir veri seti kullanarak gerçek dünya tehditlerine odaklanıyor.
RISC-V İşlemciler Otonom Araçların Güvenlik Sertifikasyonunda Yeni Umut
Açık kaynaklı RISC-V işlemci mimarisi, otonom araçlarda güvenlik kritik sistemler için umut vadediyor. Araştırmacılar, RISC-V'nin şeffaf yapısının otomotiv güvenlik standartlarına uygunluğunu analiz etti. ISO 26262 ASIL-D sertifikasyonlarıyla kanıtlanan bu mimari, otonom sürüş sistemlerinde güvenilir deployment için hazır durumda. Ancak otomotiv sektöründe fonksiyonel güvenlik, işlemci sorunundan çok sertifikasyon sorunu olarak karşımıza çıkıyor. Maliyet faktörleri tanı kapsamı analizi, araç zinciri yeterliliği ve güvenlik vakası oluşturma süreçlerinden kaynaklanıyor. RISC-V'nin açık ISA yapısı, formal doğrulanabilirliği ve özel uzantı kontrolü gibi özellikleri, güvenlik gereksinimlerini karşılamada avantaj sağlayabilir.
Yapay zeka sistemi matematik araştırmalarında çığır açtı: Altı problem çözüldü
Araştırmacılar, Bolzano adlı açık kaynaklı yapay zeka sisteminin matematik ve teorik bilgisayar bilimlerinde altı farklı problemi çözdüğünü duyurdu. Çok ajanlı mimari kullanan sistem, paralel çalışan kanıtlayıcı ajanlar ve doğrulayıcı ajan arasında etkileşim kurarak kalıcı bir bilgi tabanı oluşturuyor. Altı sonuçtan dördü yayımlanabilir araştırma düzeyine ulaşırken, üçü neredeyse tamamen özerk şekilde üretildi. Bu başarı, yapay zekanın matematik araştırmalarına anlamlı katkılar sunabileceğinin güçlü bir kanıtı olarak değerlendiriliyor ve alandaki benzer çalışmaları destekliyor.
Yapay Zeka Modellerindeki Erişim Kısıtlamaları Güvenliği Artırmıyor Olabilir
Açık kaynaklı yapay zeka modellerine erişimin kısıtlanmasının güvenliği artırdığı düşünülse de, yeni bir araştırma bunun tam tersini öne sürüyor. Araştırmacılar, erişim kısıtlamalarının riskleri azaltmak yerine başka alanlara kaydırdığını ve özellikle gelişmekte olan ülkelerde yapay zeka kapasitesini olumsuz etkilediğini belirtiyor. Çalışma, mevcut 'açık erişim risk, kısıtlama güvenlik' yaklaşımının yanıltıcı olduğunu savunuyor. Bunun yerine, donanım katmanında yönetişim mekanizmaları ve çok katmanlı güvenlik yaklaşımlarının daha etkili çözümler sunabileceğini öne sürüyor. Bu bulgular, yapay zeka güvenliği ve erişilebilirliği arasındaki dengeyi yeniden düşünmemiz gerektiğini gösteriyor.
8 Milyar Parametreli Açık Kaynak Model, Araç Kullanan Yapay Zeka Eğitiminde Devrim Yaratıyor
Stanford araştırmacıları, yapay zeka ajanlarına araç kullanmayı öğretmek için sadece 8 milyar parametreli açık kaynak dil modellerinin yeterli olduğunu kanıtladı. TRUSTEE adlı yeni yöntem, pahalı ticari modellere veya önceden hazırlanmış veri setlerine ihtiyaç duymadan, dinamik simülasyon ortamları oluşturarak AI ajanları eğitiyor. Sistem, görev üretimi, kullanıcı simülasyonu ve araç simülasyonu süreçlerini tamamen ücretsiz modellerle gerçekleştiriyor. Bu yaklaşım, AI ajanlarının farklı alanlarda tutarlı performans iyileştirmeleri göstermesini sağlıyor ve dış kaynak gerektiren diğer yöntemleri geride bırakıyor.
Yapay Zeka Modellerini Rekabetçi Oyunla Eğiten Yeni Yöntem Geliştirildi
Araştırmacılar, yapay zeka modellerinin eğitimi için kaliteli veri üretme sorununa yaratıcı bir çözüm getirdi. Geleneksel veri toplama yöntemleri pahalı ve düşük kaliteli sonuçlar verirken, yeni 'Adversarial Arena' yaklaşımı veri üretimini rekabetçi bir oyuna dönüştürüyor. Bu sistemde 'saldırgan' takımlar zor sorular hazırlarken, 'savunucu' takımlar bu sorulara yanıt üretiyor. 10 üniversite takımının katıldığı siber güvenlik odaklı yarışmada 19.683 çok turlu konuşma verisi üretildi. Bu verilerle eğitilen açık kaynak model, güvenli kod üretiminde %18,47 iyileşme gösterdi. Yöntem, özellikle kaynak kısıtı olan alanlarda ve karmaşık konuşma verilerinin üretilmesi için büyük potansiyel taşıyor.
Yapay zeka ajanları 203 yazılım açığı keşfetti
Singapur Yönetim Üniversitesi ve GovTech Singapur'un ortak geliştirdiği TitanCA sistemi, büyük dil modellerini kullanarak yazılım güvenlik açıklarını tespit etmede çığır açtı. Sistem, birden fazla yapay zeka ajanını koordine ederek çalışıyor ve açık kaynak yazılımlarda 203 tane daha önce bilinmeyen güvenlik açığı keşfetti. Bu başarı, geleneksel güvenlik tarama araçlarının yüksek yanlış alarm oranları sorununa karşı umut verici bir çözüm sunuyor. Araştırmacılar, eşleştirme, filtreleme, inceleme ve uyarlama olmak üzere dört modülden oluşan mimariyi kullandılar ve 118 CVE (Common Vulnerabilities and Exposures) kaydı elde ettiler.
GitLab CI/CD'de Performans Sorunlarının Ana Kaynağı: Önbellek Hataları
Yazılım geliştirme süreçlerinde hızlı teslimat için kritik olan CI/CD sistemlerinde, önbellek yanlış yapılandırmalarının ciddi performans ve güvenilirlik sorunlarına yol açtığı ortaya çıktı. Araştırmacılar GitLab CI/CD sistemlerinde on farklı önbellek hatası türü belirledi ve bunları otomatik tespit eden CROSSER adlı aracı geliştirdi. 228 açık kaynak projesi üzerinde yapılan kapsamlı analiz, bu sorunların yaygınlığını gözler önüne serdi. Geliştirilen araç, manuel etiketlenmiş 82 proje üzerinde test edildiğinde %98 F1 skoru ile son derece yüksek doğruluk oranı elde etti. Bu çalışma, yazılım geliştirme süreçlerinin optimize edilmesi açısından önemli bir adım teşkil ediyor.
GitHub'da Siber Saldırıları Tespit Eden Yeni Sistem Geliştirildi
Yazılım dünyasının kalbi GitHub'da giderek artan kötü amaçlı kullanım vakalarına karşı yeni bir savunma sistemi geliştirildi. Araştırmacılar, 392 GitHub hesabı ve deposunu analiz ederek farklı saldırı türlerini kategorize eden kapsamlı bir taksonomi oluşturdu. Bu çalışma, modern yazılım tedarik zincirlerinin güvenliğinde kritik rol oynayan GitHub'un karşılaştığı güvenlik tehditlerini sistematik olarak ele alan ilk araştırmalardan biri. Geliştirilen yapay zeka destekli tespit sistemi, hesap manipülasyonundan zararlı kod yayımına kadar geniş bir yelpazedeki saldırı türlerini yüksek doğrulukla belirleyebiliyor. Bu gelişme, açık kaynak yazılım ekosistemine yönelik artan siber tehditlere karşı önemli bir adım olarak değerlendiriliyor.