“rust” için sonuçlar
18 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Adil Tasarlanan Eşleştirme Sistemleri Bile Eşitsiz Sonuçlar Üretebiliyor
Organization Science dergisinde yayınlanan yeni araştırma, bilgisayarlı eşleştirme sistemlerinin adil tasarlanmasına rağmen eşitsiz sonuçlar doğurabileceğini ortaya koyuyor. Çalışma, sistemin nasıl çalıştığını anlamayan kullanıcıların varlığında, önyargıları azaltmak ve dürüst karar vermeyi teşvik etmek için tasarlanan sistemlerde bile adaletsizliklerin ortaya çıkabileceğini gösteriyor. Bu bulgular, teknolojik çözümlerin sosyal adaleti sağlamada tek başına yeterli olmadığını ve kullanıcı eğitiminin kritik önemini vurguluyor.
Yapay Zeka Siyasi Analiz Sistemlerinde Rol Kayması Sorunu Keşfedildi
Demokratik söylem analizi için kullanılan çok-ajanlı yapay zeka sistemlerinde kritik bir sorun ortaya çıktı. Araştırmacılar, farklı rollere atanan AI modellerinin siyasi ifadeleri değerlendirirken kendilerine verilen rolleri koruyamadığını keşfetti. TRUST pipeline sistemi üzerinde yapılan çalışmada, 60 siyasi ifade (30 İngilizce, 30 Almanca) analiz edildi. Sonuçlar, AI modellerinin özellikle gerçek kontrol sonuçları karşısında kendilerine atanan savunucu rollerini sürdüremediğini gösterdi. Bu 'Epistemik Zemin Etkisi' olarak adlandırılan fenomen, demokratik tartışma analizi sistemlerinin güvenilirliğini sorgulatıyor.
Yapay Zeka Hakem Sistemlerini Gizli Saldırı Komutlarından Koruma Yöntemi Geliştirildi
Bilim dünyasında yapay zeka tabanlı hakemlik sistemlerinin artan kullanımı, yeni güvenlik tehditlerini de beraberinde getiriyor. Araştırmacılar, makalelerin içine gizlenen zararlı komutlarla bu sistemleri manipüle etmeye çalışan saldırıları tespit etmek için yenilikçi bir savunma sistemi geliştirdi. SafeReview adlı bu sistem, sürekli gelişen saldırı yöntemlerine karşı dinamik bir savunma stratejisi benimsiyor. İki yapay zeka modelinin birlikte çalışmasına dayanan sistem, birinin saldırı komutları üretmesi, diğerinin ise bunları tespit etmesi prensibine dayanıyor. Bu yaklaşım, akademik yayıncılığın güvenilirliğini korumak açısından kritik öneme sahip.
Yapay Zeka Bilim İnsanlarının Hayali Atıflarını Yakalayan Yeni Araç
Araştırmacılar, bilimsel makalelerdeki sahte atıfları tespit eden HalluCiteChecker adlı hafif bir araç geliştirdi. Yapay zeka asistanlarının akademik yazımda yaygınlaşmasıyla birlikte, gerçekte var olmayan çalışmalara yapılan hayali atıflar ciddi bir sorun haline geldi. Bu durum hem bilimsel makalelerin güvenilirliğini sarsiyor hem de hakem ve yazarlara ek iş yükü getiriyor. Yeni araç, standart bir dizüstü bilgisayarda saniyeler içinde doğrulama yapabiliyor ve tamamen çevrimdışı çalışabiliyor. Sadece CPU kullanarak verimli şekilde çalışan sistem, hakem iş yükünü azaltmayı ve akademik kalite kontrolünü desteklemeyi hedefliyor.
Yapay zeka ile dinamik sistemlerin kontrolü: Gözlemlenmemiş koşulları tahmin etme
Araştırmacılar, dinamik sistemlerin davranışını daha az veri ile modelleyebilen yeni bir yapay zeka yöntemi geliştirdi. Kontrol Odaklı Küme Tabanlı Ağ Modeli (CNMc) adlı bu sistem, daha önce gözlemlenmemiş işletim koşullarında bile sistemlerin nasıl davranacağını tahmin edebiliyor. Geleneksel yöntemler sadece önceden görülen durumları modelleyebilirken, CNMc supervised öğrenme teknikleriyle kontrol parametrelerinin fonksiyonları olarak geçiş olasılıklarını ve geçiş sürelerini öğreniyor. Sistemin temelinde, farklı işletim koşullarının durum uzaylarını ortak bir koordinat sistemine eşleyen Procrustes dönüşümü var. Bu sayede tüm koşullardaki yörüngeler standartlaştırılabiliyor ve ortak bir küme bölümlemesi öğrenilebiliyor. Akışkanlar dinamiği alanındaki testlerde başarılı sonuçlar veren sistem, mühendislik ve bilimsel simülasyonlarda önemli zaman tasarrufu sağlayabilir.
&inator: C Kodlarını Güvenli Rust Diline Dönüştüren Yeni Araç
Araştırmacılar, C programlama dilinde yazılmış sistem yazılımlarını Rust diline otomatik olarak çeviren yeni bir araç geliştirdi. &inator adı verilen bu sistem, C kodlarının arayüz tanımlamalarını Rust'un güvenlik kurallarına uygun şekilde dönüştürebiliyor. Geleneksel C dilinin bellek güvenliği konusundaki eksiklikleri, yazılım güvenlik açıklarının temel nedenlerinden biri olarak görülürken, Rust dili sahiplik ve ödünç alma mekanizmaları sayesinde bu sorunları compile-time'da çözüyor. Yeni araç, kısıtlama tabanlı bir formülasyon kullanarak semantik eşdeğerlik ve tip doğruluğunu sağlarken, en basit ve maliyetsiz tip yapılarını tercih ediyor. Gerçek C programları üzerinde yapılan testlerde başarılı sonuçlar alınması, sistem yazılımlarının daha güvenli hale getirilmesi açısından önemli bir adım olarak değerlendiriliyor.
8 Milyar Parametreli Açık Kaynak Model, Araç Kullanan Yapay Zeka Eğitiminde Devrim Yaratıyor
Stanford araştırmacıları, yapay zeka ajanlarına araç kullanmayı öğretmek için sadece 8 milyar parametreli açık kaynak dil modellerinin yeterli olduğunu kanıtladı. TRUSTEE adlı yeni yöntem, pahalı ticari modellere veya önceden hazırlanmış veri setlerine ihtiyaç duymadan, dinamik simülasyon ortamları oluşturarak AI ajanları eğitiyor. Sistem, görev üretimi, kullanıcı simülasyonu ve araç simülasyonu süreçlerini tamamen ücretsiz modellerle gerçekleştiriyor. Bu yaklaşım, AI ajanlarının farklı alanlarda tutarlı performans iyileştirmeleri göstermesini sağlıyor ve dış kaynak gerektiren diğer yöntemleri geride bırakıyor.
Yapay Zeka Kendini Denetlemeyi Öğreniyor: AntiPaSTO Yöntemi
Araştırmacılar, yapay zekanın kendi davranışlarını kontrol edebilmesi için AntiPaSTO adlı yeni bir yöntem geliştirdi. Bu teknik, AI modellerinin sadece iki zıt kelime çifti kullanarak kendilerini 'dürüst' davranmaya yönlendirmesini sağlıyor. Geleneksel yöntemlerin aksine, insan denetimi gerektirmiyor ve modelin kendi iç yapısından yararlanıyor. Gemma-3-1B modeli üzerindeki testlerde, mevcut tekniklere göre 6.9 kat daha başarılı sonuçlar elde edildi. Bu gelişme, AI güvenliği açısından önemli çünkü modeller karmaşıklaştıkça insanların söylediklerini doğrulaması zorlaşıyor.
Yapay Zeka Metinlerini Tespit Etmenin Yeni Yolu: Hizalama İzi
Araştırmacılar, yapay zeka tarafından üretilen metinleri tespit etmek için yenilikçi bir yöntem geliştirdi. 'Hizalama İzi' adı verilen bu teknik, büyük dil modellerinin eğitim sürecinde bıraktığı matematiksel izleri takip ediyor. Geleneksel tespit yöntemleri karmaşık içeriklerde zorlanırken, yeni yaklaşım modellerin tercih ayarlama süreçlerinden kaynaklanan dağılımsal farklılıkları kullanıyor. LAPD (Log-likelihood Alignment Preference Discrepancy) adlı istatistiksel metrik, bu izleri daha kararlı şekilde ölçebiliyor. Çalışma, AI-generated içerik tespitinde önemli bir ilerleme kaydederken, akademik dürüstlük ve deepfake metinlerle mücadelede yeni olanaklar sunuyor.
Yapay zeka programcıları daha adil hale getiren yeni yöntem geliştirildi
Araştırmacılar, büyük dil modellerinin yazılım hatalarını düzeltme konusundaki adaletsizliğini gidermek için HELO-APR adlı yeni bir çerçeve geliştirdi. Bu sistem, popüler programlama dillerindeki bilgiyi daha az kullanılan dillere aktararak, yapay zekanın tüm programlama dillerinde eşit başarı göstermesini sağlıyor. C++'dan Ruby ve Rust'a bilgi transferi yapan bu yöntem, yazılım geliştirme alanında dil çeşitliliğini destekleyerek teknolojik adaletsizliği azaltmayı hedefliyor. İki aşamalı öğrenme stratejisi kullanan sistem, az verili diller için sentetik eğitim materyali oluşturuyor ve ardından kademeli öğrenme ile bu dillerdeki hata düzeltme yeteneklerini geliştiriyor.
Yapay Zeka ile C Kodlarını Daha Güvenli Rust'a Çeviren Yeni Teknik
Araştırmacılar, C programlama dilinde yazılmış kodları Rust diline çeviren mevcut araçların güvenlik açığı yaratan ham işaretçi problemini çözen yeni bir yöntem geliştirdi. PR2 adlı bu sistem, GPT-4 büyük dil modelini kullanarak ham işaretçileri Rust'ın güvenli veri yapılarına otomatik olarak dönüştürüyor. C dilinde yazılmış eski kodların modern ve güvenli Rust diline geçirilmesi, yazılım güvenliğini artırmak için kritik bir süreç. Mevcut araçlar sözdizimi çevirisini başarıyla yapsa da, ortaya çıkan Rust kodları güvenli olmayan yapılar içeriyor. Yeni geliştirilen teknik, karar ağacı tabanlı yönlendirme kullanarak bu sorunu çözüyor ve hataları otomatik olarak düzeltiyor. Bu gelişme, milyonlarca satır C kodu bulunan kritik sistemlerin daha güvenli hale getirilmesinde önemli bir adım.
IoT Cihazları İçin Merkezi Olmayan Güvenlik Sistemleri Gelişiyor
Nesnelerin İnterneti (IoT) cihazlarının yaygınlaşmasıyla birlikte güvenlik açıkları da artıyor. Araştırmacılar, geleneksel merkezi güvenlik sistemlerinin alternatifi olarak dağıtık güvenlik mekanizmalarını inceliyor. Federated learning, Zero Trust mimarileri ve hafif blockchain teknolojileri gibi yenilikçi yaklaşımlar, kaynak kısıtlı IoT cihazlarında güvenliği sağlamak için test ediliyor. Bu dağıtık sistemler, gizliliği artırıyor ve tek nokta arızalarını önlüyor ancak ölçeklenebilirlik konusunda hâlâ zorluklarla karşılaşıyor. Otuz güncel çalışmanın analiz edildiği kapsamlı değerlendirme, IoT ağlarında güven oluşturma ve saldırı tespiti konularında önemli gelişmeler kaydettiğini gösteriyor.
Otonom Sürüşte Yeni Yaklaşım: Altyapı Merkezli Dünya Modelleri
Araştırmacılar, otonom sürüş teknolojisinde devrim yaratabilecek yeni bir yaklaşım geliştirdi. Geleneksel sistemlerin aksine araç perspektifini değil, yol kenarı altyapısının bakış açısını kullanan bu model, sabit sensörlerle uzun vadeli davranış verilerini topluyor. Kuş bakışı görüş açısı sayesinde nadir güvenlik olaylarını da dahil olmak üzere daha kapsamlı çevresel anlayış sağlayan sistem, mevcut araç tabanlı modellerin eksiklerini gideriyor. Bu yaklaşım, gelecekte daha güvenli ve etkili otonom sürüş sistemleri geliştirilmesinde önemli bir adım olabilir.
Yapay Zeka C/C++ Kodunu Otomatik Olarak Güvenli Rust Diline Çeviriyor
Araştırmacılar, eski C ve C++ kodlarını modern ve güvenli Rust programlama diline otomatik olarak dönüştüren yeni bir yapay zeka sistemi geliştirdi. LLM4C2Rust adlı bu sistem, büyük dil modellerini (LLM) küçük dil modelleriyle birleştirerek kod çevirisini gerçekleştiriyor. Sistem, özellikle bellek güvenliği sorunlarını çözmek için tasarlandı. C ve C++ gibi eski programlama dillerinde yazılmış yazılımlar, bellek hatalarına karşı savunmasızken, Rust dili yerleşik güvenlik garantileri sunuyor. Manuel kod çevirisi zaman alıcı ve hata yapmaya açık olduğundan, bu otomatik yaklaşım yazılım geliştirme sürecini hızlandırabilir. RAG (Retrieval-Augmented Generation) teknolojisini kullanan framework, hem büyük hem de küçük dil modellerinin avantajlarını birleştirerek daha etkili sonuçlar elde ediyor. Bu gelişme, özellikle eski sistemlerin modernizasyonu için önemli bir adım sayılıyor.
Güvenilir Ortam Teknolojisi ile Blockchain Konsensüsünde Yeni Dönem
Araştırmacılar, konsorsiyum blockchain ağları için T-RBFT adlı yeni bir konsensüs mekanizması geliştirdi. Bu sistem, güvenilir çalıştırma ortamı (TEE) teknolojisini kullanarak geleneksel Bizans Hata Toleranslı protokollerin performans sorunlarını çözmeyi hedefliyor. Konsorsiyum blockchain'lerinde çoğu düğümün dürüst olduğu ortamlarda, mevcut BFT protokolleri gereksiz mesaj alışverişi ve hesaplama yükü oluşturuyor. T-RBFT, iki katmanlı konsensüs yapısı ve dinamik gruplama ile bu sorunu aşarak daha yüksek performans ve ölçeklenebilirlik sunuyor. Bu gelişme, özellikle kurumsal blockchain uygulamaları için önemli verimlilik artışları vadediyor.
Yapay Zeka Yazdığı Kodları Tespit Eden Yeni Sistem: LLMSniffer
Yazılım geliştirmede yapay zeka araçlarının yaygınlaşmasıyla birlikte, AI tarafından üretilen kodları insan yazısından ayırt etmek kritik bir sorun haline geldi. Araştırmacılar, bu zorluğa çözüm olarak LLMSniffer adlı yenilikçi bir tespit sistemi geliştirdi. GraphCodeBERT teknolojisini kullanan sistem, kontrastlı öğrenme yöntemiyle eğitildi ve mevcut sistemlere göre dikkat çekici başarı artışları elde etti. GPTSniffer veri setinde doğruluk oranı %70'den %78'e, Whodunit veri setinde ise %91'den %94.65'e yükseldi. Bu gelişme, akademik dürüstlük, kod kalite kontrolü ve siber güvenlik alanlarında önemli uygulamalara sahip.
Yapay Zeka Optimizasyonunda Hibrit Yaklaşım: Model ve Arama Yöntemlerinin Birleşimi
Araştırmacılar, simülasyon tabanlı optimizasyon problemlerinde model tabanlı ve arama tabanlı yöntemleri birleştiren yeni bir hibrit yaklaşım geliştirdi. Geleneksel olarak ayrı ayrı kullanılan bu iki yöntem - trust region yaklaşımları ile Bayesian optimizasyon gibi model tabanlı teknikler ve genetik algoritmalar ile Direct Search gibi arama tabanlı teknikler - artık bir arada çalışarak daha etkili sonuçlar üretiyor. Yeni yaklaşım, Direct Search yöntemlerini kullanarak herhangi bir model tabanlı optimizasyon algoritmasının performansını artırıyor. Özellikle makine öğrenmesi uygulamalarında sınıflandırma ve regresyon problemlerinde test edilen sistem, doğruluk, hesaplama süresi, algoritmik önyargı ve sadelik gibi farklı ölçütlerde başarılı sonuçlar veriyor.
Yapay Zeka ile Sınav Kopya Tespiti: %95 Doğruluk Oranıyla Çalışan Yeni Sistem
Araştırmacılar, sınav sırasında kopya çekme davranışlarını tespit edebilen iki aşamalı yapay zeka sistemi geliştirdi. Sistem, önce YOLOv8n modeliyle sınav salonundaki öğrencileri tespit ediyor, ardından RexNet-150 modeliyle davranışlarını analiz ediyor. 273 bin örnek üzerinde eğitilen sistem %95 doğruluk oranına ulaştı. Geleneksel gözetim yöntemlerinin pahalı ve hata yapma eğiliminde olması nedeniyle geliştirilen bu teknoloji, akademik dürüstlük konusundaki sorunlara modern bir çözüm sunuyor. İki farklı derin öğrenme modelinin entegrasyonuyla çalışan sistem, şeffaf ve etkili bir alternatif oluşturuyor.