"REST API" için 22 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
22 haber
Yapay Zeka Hukuk Asistanları İçin Yeni Güvenli Sistem Geliştirildi
Araştırmacılar, hukuk alanında çalışan yapay zeka sistemlerinin güvenilirliğini artıracak yeni bir teknoloji geliştirdi. SAT-Graph API adlı sistem, hukuki belgelerdeki hiyerarşi, zaman çizelgesi ve nedensellik ilişkilerini koruyan denetlenebilir bir yaklaşım sunuyor. Geleneksel RAG sistemlerinin aksine, bu yeni teknoloji hukuki normları yapısal-zamansal bilgi grafikleri şeklinde modelleyerek daha güvenilir sonuçlar üretiyor. Sistem, olasılıklı dil modelleri ile deterministik sembolik alt yapı arasında köprü görevi gören atomik ve kompozit arayüzler kullanıyor. Bu gelişme, hukuk gibi kritik alanlarda yapay zeka kullanımının güvenilirliğini önemli ölçüde artırabilir.
arXiv (Dilbilim & NLP) · 15 gün önce
0
Yapay Zeka Güvenliği İçin Yeni Test Zamanı Hizalama Yöntemi Geliştirildi
Araştırmacılar, yapay zeka modellerinin güvenliğini artırmak için test zamanında kelime gömme vektörlerini optimize eden yeni bir yöntem geliştirdi. Bu yaklaşım, modelin zararlı içerik üretme eğilimini azaltmak için girdi seviyesinde müdahale yapıyor. Özellikle güvenlik hizalaması yapılmış modellerde etkili olan bu teknik, modelin ret-ya-da-kabul şeklindeki ikili davranış kalıbını kontrol edebiliyor. Yöntem, siyah kutu metin moderasyon API'lerinden gradyan tahmini yaparak kelime gömme vektörlerini ayarlıyor. Bu gelişme, AI güvenliği alanında önemli bir adım olarak değerlendiriliyor çünkü mevcut modelleri yeniden eğitmeden güvenlik seviyelerini artırma imkanı sunuyor.
arXiv (Dilbilim & NLP) · 15 gün önce
0
Yapay Zeka Modellerindeki Veri Sızıntısı Riski Yeniden Tanımlanıyor
Araştırmacılar, büyük dil modellerinin (LLM) API'larındaki veri güvenliği yaklaşımlarının yetersiz olduğunu ortaya koydu. Mevcut gizlilik ölçütlerinin, modellerin eğitim verilerini sızdırma riskini tam olarak değerlendirmediği belirlendi. Diferansiyel gizlilik gibi standart koruma yöntemlerinin, kötü niyetli saldırganların hassas bilgileri çıkarmasını engellemede yetersiz kaldığı gösterildi. Çalışma, bu soruna çözüm olarak yeni bir güvenlik tanımı önerirken, yapay zeka sistemlerindeki veri koruma stratejilerinin köklü bir şekilde yeniden düşünülmesi gerektiğine işaret ediyor.
arXiv (CS + AI) · 23 gün önce
0
Java Uygulamalarındaki Güvenlik Açıklarını Tespit Eden Yeni Sistem: GONDAR
Araştırmacılar, Java uygulamalarındaki güvenlik açıklarını daha etkili bir şekilde tespit edebilen GONDAR adlı yeni bir sistem geliştirdi. Bu çerçeve, güvenlik açısından hassas API'ların semantiklerini sistematik olarak kullanarak hedefli zafiyet keşfi yapıyor. Java uygulamaları, dosya işlemlerinden uzaktan kod çalıştırmaya kadar birçok güvenlik riski taşıyor. GONDAR, bu riskleri daha doğru tespit etmek için yapay zeka destekli filtreleme ve özelleştirilmiş ajanlar kullanıyor. Sistem, önce erişilebilir ve istismar edilebilir API çağrı noktalarını belirliyor, ardından iki uzman ajan devreye giriyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Destekli Yazılım Geliştirme Maliyetlerini %55'e Kadar Azaltan Yöntem
Büyük dil modelleriyle güçlendirilmiş yazılım geliştirme ajanları, endüstride giderek daha fazla kullanılsa da yüksek maliyetleri önemli bir sorun teşkil ediyor. Araştırmacılar, geçmiş deneyimlerden öğrenen EET adlı yeni bir yaklaşım geliştirdi. Bu sistem, yazılım hatalarını düzeltme sürecinde gereksiz işlemleri erken sonlandırarak maliyetleri önemli ölçüde düşürüyor. Üç farklı yazılım geliştirme ajanı üzerinde yapılan testlerde, EET yöntemi toplam maliyetleri %19-55 arasında azaltırken, başarı oranında sadece %0,2'lik ihmal edilebilir bir kayıp yaşandı. Bu verimlilik artışı, sorunların %11'inde erken sonlandırma fırsatları yakalayarak API çağrılarını %21, giriş verilerini %30 ve çıkış verilerini %25 oranında azaltarak elde edildi.
arXiv (CS + AI) · 24 gün önce
0
C-World: Yapay Zeka Ajanları İçin Sonsuz Öğrenme Ortamları Üreten Sistem
Araştırmacılar, yapay zeka ajanlarının insan benzeri planlama ve akıl yürütme yetenekleri kazanması için ihtiyaç duydukları geniş çaplı öğrenme ortamlarını otomatik olarak oluşturabilen C-World adlı bir sistem geliştirdi. Sistem, 204 farklı uygulamadan toplam 5.571 araç içeren kapsamlı bir eylem alanı sunuyor. Gerçek API çalıştırma modunda canlı servislerle, sentetik modda ise World Engine ile simülasyonlar yapabiliyor. Uzun vadeli iş akışları oluşturan görev dağıtım motoru, gerçekçi hatalar enjekte eden durum kontrolörü ve doğrulanabilir ölçümlerle LLM tabanlı değerlendirmeyi birleştiren ödül sistemiyle eksiksiz bir ajan ortamı sunuyor. Bu yenilik, yapay zeka ajanlarının sürekli öğrenme için ihtiyaç duyduğu çeşitli ve ölçeklenebilir ortamları maliyetli manuel geliştirme süreçleri olmadan elde etmelerini sağlıyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Kod Asistanları Gizli Bilgileri Nasıl Sızdırıyor?
Yapay zeka destekli kod yazma araçları, yazılım geliştiricilerin hayatını kolaylaştırırken beklenmedik bir güvenlik riski yaratıyor. Araştırmacılar, büyük dil modellerinin kod yazmak için kullandığı tokenizasyon yönteminin, API anahtarları ve şifreler gibi gizli bilgileri ezberlemesini kolaylaştırdığını keşfetti. Bu durum, modellerin eğitim sırasında karşılaştığı hassas verileri istemeden hatırlayıp paylaşmasına yol açıyor. Özellikle karakter düzeyinde karmaşık görünen ancak token düzeyinde basit olan gizli bilgilerin daha kolay ezberlendiği ortaya çıktı. Bu keşif, AI kod asistanlarının siber güvenlik açısından yeniden değerlendirilmesi gerektiğini gösteriyor.
arXiv (CS + AI) · 24 gün önce
0
Emlak sektöründe yapay zeka: Yeni benchmark karmaşık sorulara çözüm arıyor
Araştırmacılar, emlak sektöründeki karmaşık soruları yanıtlayabilen yapay zeka sistemleri için ReCoQA adlı yeni bir benchmark geliştirdi. Bu sistem, veritabanı sorguları ve dış API'ları birleştirerek çok adımlı mantıksal çıkarımlar yapabiliyor. 29.270 emlak örneği içeren bu benchmark, yapay zeka ajanlarının parçalı bilgi kaynaklarını nasıl birleştireceğini test ediyor. Geliştirilen HIRE-Agent sistemi, hiyerarşik bir yapıyla çalışarak önce soruyu anlıyor, sonra plan yapıyor ve son olarak bu planı uyguluyor. Bu çalışma, gerçek dünya problemlerinde yapay zekanın karar verme süreçlerini iyileştirmek için önemli bir adım teşkil ediyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Destekli Test Sistemi Yazılım Güvenliğini Artırıyor
Araştırmacılar, yazılım kütüphanelerinin güvenlik testlerini otomatikleştiren yeni bir sistem geliştirdi. MASFuzzer adı verilen bu framework, büyük dil modellerini kullanarak yazılımlardaki potansiyel güvenlik açıklarını daha etkili şekilde tespit ediyor. Geleneksel yöntemlerde geliştiricilerin manuel olarak hazırladığı test sürücüleri yerine, sistem otomatik olarak çok boyutlu API dizileri oluşturuyor ve adaptatif planlama stratejileri kullanıyor. Bu yaklaşım, yazılımların derin program dallarına ulaşarak daha kapsamlı testler yapılmasını sağlıyor. Yazılım güvenliğinin kritik önem taşıdığı günümüzde, bu tür otomatik test sistemleri siber güvenlik açıklarının önceden tespit edilmesinde önemli rol oynuyor.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Ajanları İçin İşletim Sistemi Mantığıyla Çalışan Yeni Koordinasyon Sistemi
Araştırmacılar, birden fazla yapay zeka ajanının aynı API'yi kullanırken yaşadığı kaynak çekişmesi sorununu çözen HiveMind sistemini geliştirdi. Bu sistem, işletim sistemlerinin CPU ve bellek yönetim prensiplerine dayanan beş farklı programlama tekniği kullanıyor. Deneylerde, koordinasyon olmadan çalışan ajanların %72-100 oranında başarısız olduğu durumlarda, HiveMind sayesinde başarı oranı önemli ölçüde artıyor. Sistem, mevcut ajan kodlarında hiçbir değişiklik gerektirmeden çalışıyor ve OpenAI, Anthropic gibi büyük AI şirketlerinin API'lerini destekliyor. Bu gelişme, paralel AI ajan uygulamalarının daha güvenilir çalışması açısından önemli bir adım.
arXiv (CS + AI) · 24 gün önce
0
Yapay Zeka Sistemleri için Geliştirilmiş Yeni Güvenlik Mimarisi
Araştırmacılar, büyük dil modellerinin kullandığı Model Context Protocol (MCP) sistemleri için CASCADE adlı üç katmanlı bir güvenlik mimarisi geliştirdi. Bu yenilikçi savunma sistemi, yapay zeka uygulamalarına yönelik prompt injection saldırılarını %95.85 doğrulukla tespit edebiliyor. CASCADE, hızlı ön filtreleme, semantik analiz ve çıktı kontrolü olmak üzere üç aşamalı bir yaklaşım benimsiyor. Sistem, 5000 örneklik veri seti üzerinde test edildi ve %74.59 F1-skoru elde etti. MCP tabanlı sistemlerdeki tool poisoning gibi yeni saldırı türlerine karşı da koruma sağlayan bu mimari, mevcut sistemlerin yüksek yanlış pozitif oranları ve API bağımlılığı gibi sorunlarını çözmeyi hedefliyor.
arXiv (CS + AI) · 24 gün önce
0