“yazılım” için sonuçlar
210 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Kuantum ve Klasik İşlemeyi Birleştiren Görüntüleme Teknolojisi Geliştirildi
Araştırmacılar, kuantum ve klasik görüntüleme yöntemlerini birleştirerek çok daha verimli bir sistem geliştirdi. Geleneksel kuantum görüntülemede her piksel için ayrı kuantum kaynak kullanılırken, yeni yaklaşım ana bileşen analizi ile en önemli bölgeleri belirleyerek kaynak kullanımını büyük ölçüde azaltıyor. Bu hibrit sistem, kuantum donanım katmanı ile klasik yazılım katmanını ortak tasarlayarak, aynı görüntü kalitesini çok daha az kuantum kaynağıyla elde etmeyi mümkün kılıyor. Gelişme, kuantum teknolojilerinin pratik uygulamalarında önemli bir adım teşkil ediyor.
Türk bilim insanları için yeni açık kaynak: TNRKit ile tensör ağ analizi
Araştırmacılar, karmaşık fiziksel sistemlerin analizinde kullanılan tensör ağ renormalizasyonu için TNRKit adlı açık kaynaklı bir yazılım paketi geliştirdi. Julia programlama dilinde yazılan bu araç, iki ve üç boyutlu klasik istatistiksel modellerin yanı sıra öklitsel kafes alan teorilerinin analizi için kullanılabiliyor. Paket, partition fonksiyonlarının tensör-ağ temsillerini oluşturabilir ve TRG, HOTRG ve LoopTNR gibi modern yöntemlerle bunları kaba-taneli hale getirebiliyor. Özellikle termodinamik büyüklüklerin hesaplanmasının ötesinde, sabit nokta tensörlerinden ölçekleme boyutları ve merkezi yük gibi evrensel konformal verileri doğrudan çıkarabilme özelliği sunuyor. Bu gelişme, teorik fizik ve hesaplamalı fizik alanlarında çalışan araştırmacılar için önemli bir kaynak oluşturuyor.
Parçacık Hızlandırıcıları İçin Yeni Simülasyon Yazılımı: pyTRAIN
Bilim insanları, dünyaca ünlü CERN'deki Büyük Hadron Çarpıştırıcısı gibi parçacık hızlandırıcılarında parçacık demetlerinin davranışını analiz etmek için kullanılan eski TRAIN yazılımını modern Python programlama diliyle yeniden geliştirdi. 1995 yılında geliştirilen orijinal TRAIN, LEP ve LHC hızlandırıcılarında parçacık demetleri arasındaki etkileşimleri incelemek için yaygın şekilde kullanılmıştı. Yeni pyTRAIN yazılımı, parçacık fiziği araştırmalarında kritik öneme sahip demek-demek etkileşimlerini daha verimli şekilde simüle edebiliyor. Modern kütüphaneler kullanılarak geliştirilen bu araç, farklı parçacık türlerini destekleyebilir ve çok sayıda etkileşim noktasını analiz edebilir. Yazılım, LHC'nin gerçek çalışma verileriyle karşılaştırılarak doğrulanmış durumda. Bu gelişme, parçacık hızlandırıcılarının tasarımı ve işletimi için daha güçlü simülasyon araçlarının kullanılabilir hale gelmesi anlamına geliyor.
Kuantum Bilgisayarlar İçin Yeni Simülasyon Aracı: AtomTwin.jl
Araştırmacılar, nötr atom tabanlı kuantum işlemciler için özel olarak tasarlanmış yeni bir açık kaynak simülasyon paketi geliştirdi. AtomTwin.jl adlı bu araç, kuantum protokollerini geliştirme ve test etme sürecini büyük ölçüde kolaylaştırıyor. Yazılım, atomları, optik cımbızları, lazer alanlarını ve gürültü süreçlerini fiziksel parametrelerden yola çıkarak modelleyebiliyor. Bu sayede kullanıcıların karmaşık matematiksel formülleri manuel olarak tanımlamasına gerek kalmıyor. Yüksek performanslı çözücülere sahip olan paket, özellikle ytterbium-171 atomları için hazır modeller sunuyor ve gelecekte farklı atom türleri ile donanım bileşenlerine uyarlanabilecek esnek bir yapıya sahip.
Füzyon Reaktörü EXL-50U İçin Yeni Plazma Türbülans Tanı Sistemi
Füzyon enerjisi alanında önemli bir gelişme yaşanıyor. Energy iNNovation şirketi tarafından proton-bor füzyonu için geliştirilen EXL-50U küresel tokamak reaktörüne, plazma türbülansını ölçebilen Doppler saçılma tanı sistemi tasarlanıyor. Bu sistem, füzyon reaktörlerinde enerji kaybına neden olan türbülansları izleyerek reaktör verimliliğinin artırılmasına katkı sağlayacak. Araştırmacılar, SCOTTY adlı özel yazılım kullanarak sistemin tasarımını optimize ettiler ve 0.15'ten başlayan saçılma konumlarını ölçebileceğini belirlediler. Bu çalışma, füzyon enerjisinin ticarileştirilmesi yolunda atılan önemli teknolojik adımlardan biri olarak değerlendiriliyor.
Bellek Simülasyonlarında Büyük Doğruluk Sorunu Keşfedildi
Bilgisayar bellek sistemlerinin performansını tahmin etmek için kullanılan simülasyon yazılımları, gerçek donanımla karşılaştırıldığında ciddi sapmalar gösteriyor. Araştırmacılar, bu hataların temel nedenini CPU-bellek arayüzünde buldu ve yeni bir doğrulama metodolojisi geliştirdi. Çalışma, bellek simülatörü, CPU-bellek arayüzü ve uygulama olmak üzere üç farklı perspektiften performans analizi yapıyor. Bulgular, uygulama seviyesindeki performansın simülatör istatistiklerinden önemli ölçüde kopuk olabildiğini ortaya koyuyor. Bu keşif, yeni nesil bellek teknologilerinin geliştirilmesinde kritik öneme sahip.
Yapay Sinir Ağlarında Seyreklik Avantajı Gerçek Dünyada Kaybolabiliyor
Nöromorfikta hesaplama için umut verici görülen spike sinir ağları, teorik avantajlarını gerçek donanımda kaybedebiliyor. Araştırmacılar, seyrek aktivite gösteren VS-WNO modelini standart yoğun WNO modeliyle karşılaştırdıkları çalışmada, beklenmedik sonuçlar elde etti. Jetson Orin Nano üzerinde yapılan testlerde, seyrek model %54'ten %18'e düşen spike oranlarına rağmen, daha yavaş ve daha fazla enerji tüketen performans sergiledi. Bu durum, nöromorfikta hesaplamanın teorik potansiyelinin mevcut donanım ve yazılım altyapılarında tam olarak gerçekleştirilemediğini gösteriyor.
Yazılım Geliştiriciler İçin Tek Merkezli AI Destekli Çalışma Ortamı
Günümüz yazılım geliştiricileri GitHub, Slack, Jira gibi 5-10 farklı araç arasında sürekli geçiş yapmak zorunda kalıyor. Bu durum konsantrasyonu bozuyor ve verimliliği düşürüyor. Araştırmacılar, tüm geliştirici araçlarını tek bir arayüzde toplayan 'Workstream' adlı açık kaynaklı platformu geliştirdi. Sistem, kod inceleme süreçlerini AI ile destekleyerek, geçmiş verilerden öğrenerek ve depoların AI için hazır olup olmadığını puanlayarak geliştiricilerin işini kolaylaştırıyor. Bu yenilikçi yaklaşım, yazılım geliştirme süreçlerinde önemli bir adım olarak değerlendiriliyor.
Yapay Zeka ve Sembolik Mantık Birleşiyor: Kod Açıklarını Otomatik Onarma
Araştırmacılar, büyük dil modellerinin kod güvenlik açıklarını onarma yeteneklerini artıran yeni bir hibrit sistem geliştirdi. SynthFix adlı bu sistem, yapay zeka ile sembolik programlama yaklaşımlarını birleştirerek, geleneksel yöntemlere göre %32'ye varan başarı artışı sağladı. Sistem, geliştiricilerin çalışma mantığını taklit ederek, hem yaygın hata kalıplarını öğreniyor hem de karmaşık durumlar için derleyici geri bildirimlerini kullanıyor. Bu gelişme, yazılım güvenliğinde otomasyonun artırılması açısından önemli bir adım.
Yapay zeka modelleri kod hata ayıklama konusunda başarısız: Yeniden yazıyor ama düzeltmiyor
Araştırmacılar, günümüzün en gelişmiş yapay zeka modellerinin kod hata ayıklama konusunda beklenenin çok altında performans sergilediğini ortaya çıkardı. GPT ve DeepSeek gibi önde gelen modeller, hatalı kodları düzeltmek yerine baştan yeniden yazma eğilimi gösteriyor. Yeni geliştirilen Precise Debugging Benchmark (PDB) test sistemi, bu modellerin birim testlerden %76 oranında geçmesine rağmen, hassaslık açısından %45'in altında kaldığını gösteriyor. Bu durum, yapay zekanın gerçek programlama iş akışlarında kullanımı açısından önemli bir sınırlama oluşturuyor.
Yapay Zeka Kodlarında 'Sessiz Hata' Sorunu: Yeni Denetim Sistemi Geliştirildi
Araştırmacılar, yapay zeka destekli kod üretiminde yaygın bir sorun tespit etti: AI'ın yazdığı kodlar görünürde çalışırken aslında sessizce başarısız oluyor. Stanford ve Google araştırmacıları, bu durumun rastgele bir hata dağılımı olmadığını, insan geri bildirimlerinden kaynaklanan sistematik bir sorun olabileceğini öne sürüyor. Geliştirilen AIRA sistemi, 15 farklı kontrol mekanizmasıyla kodlardaki bu gizli hataları tespit edebiliyor. Üç farklı çalışmada test edilen sistem, AI kodlarının insan yazdığı kodlara göre daha fazla 'aldatıcı hata' içerdiğini ortaya koydu.
JavaScript Güvenlik Açıklarının Domino Etkisi: Az Sayıda Paket, Dev Sorun
Araştırmacılar, JavaScript ekosisteminde güvenlik açıklarının nasıl yayıldığını inceleyerek çarpıcı sonuçlar ortaya koydu. Bir milyondan fazla JavaScript paketini kapsayan çalışma, az sayıdaki güvenlik açığı bulunan paketin, bağımlılık ağları aracılığıyla çok daha fazla paketi etkileyebildiğini gösteriyor. Bu durum, modern yazılım geliştirmede yaygın kullanılan paket yöneticilerinin güvenlik açısından yarattığı riskleri gözler önüne seriyor. Bulgular, yazılım güvenliği ve tehdit değerlendirmesi için kritik öneme sahip.
Yapay Zeka Ajanlarındaki Hataları Kendini Onaran Sistem: SelfHeal
Büyük dil modelleri (LLM) tabanlı yapay zeka ajanları, yazılım geliştirmede devrim yaratırken beraberinde yeni hata ayıklama zorluklarını da getiriyor. Araştırmacılar, Stack Overflow, GitHub ve HuggingFace forumlarından topladıkları verilerle LLM ajanlarındaki hata türlerini analiz etti. Çalışma sonucunda, bu ajanların hatalarını otomatik olarak tespit edip düzeltebilen 'SelfHeal' adlı çok ajanlı sistem geliştirildi. Bu sistem, geliştiricilerin karmaşık yapay zeka uygulamalarında karşılaştıkları sorunları çözme konusunda önemli bir adım teşkil ediyor.
Yapay Zeka Artık Kodlardaki Gizli Hataları Daha İyi Buluyor
Araştırmacılar, yazılım testlerinde devrim yaratabilecek yeni bir yapay zeka sistemi geliştirdi. GLMTest adlı bu sistem, geleneksel metin tabanlı yaklaşımların aksine kodun yapısal özelliklerini anlayarak test senaryoları üretiyor. Graf sinir ağları ve dil modellerini birleştiren bu yaklaşım, yazılımların riskli bölümlerini hedefleyerek güvenlik açıklarını ve kritik hataları tespit etme başarısını önemli ölçüde artırıyor. Sistem, mevcut yöntemlere kıyasla %83 daha yüksek doğrulukla hedeflenen kod dallarına ulaşabiliyor.
Yazılım 'şişkinliğini' azaltmanın yeni yolu: Gerçek performans ölçümü
Yazılım geliştirme dünyasında 'debloating' olarak bilinen süreç, programlardan kullanılmayan kodları temizleyerek performansı artırmayı hedefliyor. Ancak bu alandaki mevcut değerlendirme yöntemleri eksik kalıyor. Araştırmacılar, test senaryoları ve kod boyutu gibi dolaylı ölçütler yerine, gerçek performans verilerine dayanan yeni bir değerlendirme yaklaşımı geliştirdi. Bu çalışma, yazılım optimizasyonu alanında daha güvenilir standartlar oluşturma ihtiyacını vurguluyor ve sekiz farklı debloating tekniğini analiz ederek alandaki boşlukları ortaya koyuyor.
AI botların kod geliştirmedeki güvenilirlik seviyesi ölçüldü
Yazılım geliştirmede artık yaygın olarak kullanılan yapay zeka botlarının, otomatik kod entegrasyonu süreçlerindeki güvenilirlik düzeyleri ilk kez kapsamlı bir şekilde incelendi. GitHub Actions platformunda 61 bin iş akışı analiz eden araştırmada, farklı AI botların başarı oranları arasında önemli farklar tespit edildi. Copilot ve Codex %93-94 başarı oranıyla öne çıkarken, botların daha sık katkı yaptığı projelerde iş akışlarının başarısızlık oranının arttığı gözlemlendi. Bu bulgular, AI destekli yazılım geliştirme süreçlerinin optimizasyonu için önemli ipuçları sunuyor.
Yapay Zeka ile Kod Analiz Araçlarının Gereksiz Uyarılarını Süzme
Yazılım geliştiriciler statik kod analiz araçlarından gelen binlerce uyarı ile boğuşurken, bunların çoğu gereksiz çıkıyor ve 'alarm yorgunluğu' yaratıyor. Araştırmacılar, transformer tabanlı yapay zeka modellerini kullanarak bu sorunu çözmek için STAF adlı yeni bir sistem geliştirdi. Sistem, kod analiz raporlarındaki bulguları 'eyleme geçirilebilir' ve 'gereksiz' olarak sınıflandırarak, geliştiricilerin gerçekten önemli sorunlara odaklanmasını sağlıyor. Java projelerinde yapılan testlerde yüksek doğruluk oranları elde edildi.
Yapay Zeka Farklı Programlama Dillerini Birbirine Çevirebiliyor mu?
Araştırmacılar, büyük dil modellerinin farklı programlama dilleri arasında kod üretme yeteneklerini kapsamlı bir şekilde incelediler. 13 farklı programlama dilini kapsayan ve yaklaşık 14 bin örnek içeren bir veri seti kullanarak gerçekleştirilen çalışma, yapay zekanın programlama dillerini birbirine çevirme konusundaki başarısının düşündüğümüzden daha karmaşık olduğunu ortaya koyuyor. Çalışma, özellikle modern yazılım geliştirmede sıkça karşılaşılan kod taşıma ve yeniden kullanma süreçlerinde yapay zeka destekli çözümlerin ne kadar etkili olabileceğine dair önemli bulgular sunuyor.
Yazılım Kalitesi İçin Yeni Veri Seti: Yarı Otomatik Kod Kokusu Tespiti
Yazılım geliştirmede 'kod kokusu' olarak adlandırılan tasarım hatalarının tespiti, yazılımın bakımını ve geliştirilmesini zorlaştıran önemli bir sorundur. Makine öğrenmesi teknikleriyle bu sorunun çözülmesi için kaliteli veri setlerine ihtiyaç duyulmaktadır. Araştırmacılar, manuel etiketlemenin zaman alıcı olması ve otomatik yöntemlerin güvenilirlik sorunları nedeniyle yarı otomatik bir yaklaşım geliştirdiler. SACS adlı yeni veri seti, yazılım mühendisliğinde kod kalitesinin değerlendirilmesi ve iyileştirilmesi için önemli bir kaynak sunuyor.
Büyük Dil Modelleri Gerçek Dünya Kodlarını Analiz Etmekte Ne Kadar Başarılı?
Araştırmacılar, yapay zeka sistemlerinin matematik problemlerindeki başarısının gerçek yazılım kodlarını anlama yetisini gösterip göstermediğini test etmek için yeni bir değerlendirme sistemi geliştirdi. Amazon'un kripto kütüphanesi s2n-bignum'dan türetilen bu test, büyük dil modellerinin endüstriyel seviyedeki assembly kodlarını ne kadar iyi analiz edebildiğini ölçüyor. Sistem, matematiksel teoremler yerine gerçek dünyada kullanılan karmaşık yazılımları temel alıyor ve AI'ın pratik programlama görevlerindeki gerçek performansını ortaya çıkarıyor.
Matematikte Yeni Buluş: 3 Boyutlu Uzayları Ayırt Eden Gelişmiş İndeks
Matematikçiler, üç boyutlu uzaysal yapıları birbirinden ayırt etmede kullanılan 3D indeks yöntemini geliştirdiler. Bu yeni yaklaşım, önceki yöntemlere kıyasla çok daha hassas ölçümler yapabiliyor ve farklı 3D geometrileri birbirinden daha net şekilde ayırabiliyor. Çalışma, süpersimetrik kuantum alan teorisi ile topoloji arasındaki bağlantıları kullanarak, karmaşık matematiksel yapıları analiz etmek için yeni araçlar sunuyor. Araştırmacılar, geliştirdikleri yöntemin doğruluğunu çeşitli test örnekleriyle kanıtladılar ve hesaplama süreçlerini kolaylaştıran özel bir yazılım aracı da oluşturdular.
Yazılım Geliştirmede Yeni Yaklaşım: Kodla Birlikte Davranış Verilerini de Arşivleme
Yazılım geliştiricileri kod değişikliklerini Git ile takip ederken, programların çalışma anındaki davranışlarını genellikle göz ardı ediyor. Araştırmacılar, bu eksikliğin yazılım geliştirme süreçlerinde önemli bir kör nokta yarattığını belirtiyor. Yeni önerilen 'Davranışsal Ortak Sürümleme' yaklaşımı, her kod değişikliğiyle birlikte programın çalışma zamanı verilerini de sistematik olarak kaydetmeyi hedefliyor. Bu yöntem, test sonuçlarını sadece 'geçti/kaldı' şeklinde değil, detaylı performans verileri ve program davranışlarıyla birlikte arşivliyor. Böylece geliştiriciler, yazılımın zaman içinde nasıl evrildiğini daha iyi anlayabilecek ve sorunları daha etkili şekilde tespit edebilecek.
Veri hatalarını gerçek zamandan önce yakalayan yeni yazılım çerçevesi geliştirildi
Araştırmacılar, büyük veri işleme sistemlerinde yaşanan şema kayması sorunlarına çözüm getiren yenilikçi bir yazılım çerçevesi geliştirdi. Bu sistem, geleneksel yöntemlerin aksine hataları veri işlenmeye başlamadan önce tespit edebiliyor. Scala 3 programlama dili kullanılarak geliştirilen çerçeve, Apache Spark gibi büyük veri platformlarında çalışan veri hatlarının güvenilirliğini artırıyor. Sistem, derleme zamanında veri yapılarının uyumluluğunu kontrol ederek, gerçek veriler işlenmeye başlamadan önce potansiyel sorunları belirliyor. Bu yaklaşım, veri bilimcileri ve mühendisleri için zaman ve kaynak tasarrufu sağlayarak, büyük ölçekli veri projelerinin daha güvenilir hale gelmesine katkıda bulunuyor.
Yapay zeka programcıları daha adil hale getiren yeni yöntem geliştirildi
Araştırmacılar, büyük dil modellerinin yazılım hatalarını düzeltme konusundaki adaletsizliğini gidermek için HELO-APR adlı yeni bir çerçeve geliştirdi. Bu sistem, popüler programlama dillerindeki bilgiyi daha az kullanılan dillere aktararak, yapay zekanın tüm programlama dillerinde eşit başarı göstermesini sağlıyor. C++'dan Ruby ve Rust'a bilgi transferi yapan bu yöntem, yazılım geliştirme alanında dil çeşitliliğini destekleyerek teknolojik adaletsizliği azaltmayı hedefliyor. İki aşamalı öğrenme stratejisi kullanan sistem, az verili diller için sentetik eğitim materyali oluşturuyor ve ardından kademeli öğrenme ile bu dillerdeki hata düzeltme yeteneklerini geliştiriyor.