"içerik filtreleme" için 169 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
169 haber
SOAR: Yapay Zeka Görsel Üretiminde Devrim Yaratan Yeni Öz-Düzeltme Yöntemi
Araştırmacılar, yapay zeka görsel üretim modellerinin eğitiminde karşılaşılan temel bir sorunu çözen SOAR adlı yenilikçi bir yöntem geliştirdi. Mevcut diffusion modellerin eğitim sürecinde, modeller sadece ideal koşullarda öğrendiği bilgileri kullanıyor ve gerçek kullanımda beklenmedik durumlarla karşılaştığında performansları düşüyordu. SOAR, bu sorunu öz-düzeltme mekanizması ile çözüyor ve modellerin hem eğitim hem de uygulama aşamalarında tutarlı performans göstermesini sağlıyor. Bu gelişme, yapay zeka destekli görsel içerik üretiminde kalite ve güvenilirlik açısından önemli bir adım teşkil ediyor.
arXiv (CS + AI) · 25 gün önce
0
Veri Tabanlarında Gizlilik: Yeni Güvenlik Politikaları Performansı Nasıl Etkiliyor?
Artan veri gizliliği düzenlemeleri ve kurumsal yönetişim gereklilikleri, veri yönetim sistemlerinde daha hassas erişim kontrollerine olan talebi artırıyor. Özellikle içerik tabanlı erişim kontrolü yaklaşımı, erişim kararlarının sorgulanmak istenen veri değerlerine göre alındığı bir yöntem olarak öne çıkıyor. Ancak bu gelişmiş güvenlik politikaları, veri tabanı optimizasyonu ile beklenmedik şekillerde etkileşime girerek performans sorunlarına yol açabiliyor. Yeni araştırma, bu durumu analiz etmek için yapısal bir çerçeve ve politika dil bilgisi geliştirerek, güvenlik önlemlerinin sorgu planlama ve yürütme süreçlerine etkisini inceliyor.
arXiv (CS + AI) · 25 gün önce
0
AI'da Kişiselleştirme Devrimi: Birkaç Örnekle Kullanıcıya Özel Yapay Zeka
Araştırmacılar, yapay zeka modellerinin kullanıcıların tercihlerini sadece birkaç örnekle öğrenebilmesini sağlayan yeni bir yöntem geliştirdi. FSPO (Few-Shot Preference Optimization) adlı bu teknik, büyük dil modellerinin her kullanıcı için özelleştirilmiş ödül fonksiyonları öğrenmesini mümkün kılıyor. Sistemin gerçek dünyada test edilmesi için araştırmacılar 1 milyon sentetik tercih verisi üretti. Bu gelişme, sanal asistanlardan içerik önerilerine kadar birçok AI uygulamasında kişiselleştirmeyi büyük ölçüde iyileştirebilir. Çalışma, yapay zekanın bireysel kullanıcı ihtiyaçlarına uyum sağlamasında önemli bir adım olarak değerlendiriliyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka İçerik Seçiminde Gizli Önyargılar: Kutuplaşma Kaçınılmaz mı?
Büyük dil modelleri (LLM) artık sosyal medya içeriklerini sıralama ve önerme görevlerinde yaygın kullanılıyor. Araştırmacılar, OpenAI, Anthropic ve Google'ın yapay zeka modellerini Twitter, Bluesky ve Reddit verilerinde test ederek, bu sistemlerin hangi önyargıları taşıdığını inceledi. 540 bin simülasyonun sonuçları şaşırtıcı: farklı yönlendirme stratejileri kullanılsa bile, tüm modeller toplumsal kutuplaşmayı artıran içerikleri tercih ediyor. Çalışma, yapay zekanın 'nötr' görünen algoritmaların bile belirli görüşleri kayırdığını ve bu durumun sadece teknik bir sorun olmadığını ortaya koyuyor. Bulgular, yapay zeka destekli içerik küratörlüğünün toplumsal etkilerini anlamak açısından kritik önem taşıyor.
arXiv (CS + AI) · 25 gün önce
0
Büyük Ölçekli Temas Mekaniği Simülasyonları İçin Yeni Matematik Yöntem
Araştırmacılar, mühendislik alanında kritik öneme sahip büyük ölçekli temas mekaniği simülasyonlarını hızlandıracak yeni bir matematiksel yöntem geliştirdi. AMG filtreleme (AMGF) adı verilen bu öncül koşullandırıcı, özellikle yapısal tasarım ve üretim alanlarında kullanılan karmaşık hesaplamaları önemli ölçüde iyileştiriyor. Yöntem, Newton tabanlı iç nokta filtreleme yaklaşımıyla birlikte kullanıldığında, mesh çözünürlüğü arttıkça ortaya çıkan hesaplama zorluklarını aşmaya yardımcı oluyor. Bu gelişme, büyük ölçekli mühendislik simülasyonlarının daha hızlı ve verimli şekilde gerçekleştirilmesine olanak tanıyarak, özellikle yapı mühendisliği ve üretim sektörlerinde önemli zaman ve kaynak tasarrufu sağlayabilir.
arXiv (CS + AI) · 25 gün önce
0
TRIDENT: AI güvenliği için üç boyutlu 'kırmızı takım' saldırı simülasyonu
Büyük dil modelleri günlük hayatımızda giderek daha fazla yer alırken, güvenlik açıkları da kritik bir sorun haline geliyor. Araştırmacılar, AI sistemlerinin zararlı içerik üretme risklerini azaltmak için TRIDENT adlı yeni bir yaklaşım geliştirdi. Bu sistem, üç temel boyutta - kelime çeşitliliği, kötü niyetli amaçlar ve güvenlik duvarı aşma taktikleri - AI modellerine karşı simülasyon saldırılar düzenleyerek zayıflıkları tespit ediyor. Mevcut güvenlik veri setlerinin çoğunlukla yalnızca sözcük çeşitliliğine odaklandığını belirten araştırma, daha kapsamlı risk analizi ihtiyacını vurguluyor. TRIDENT, persona tabanlı otomatik üretim teknikleriyle çeşitli zararlı talimatlar oluşturup bunlara etik açıdan uygun yanıtlar eşleştiriyor. Bu yaklaşım, AI güvenlik sistemlerinin daha dayanıklı hale gelmesine katkı sağlayabilir.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Görsel Düzenleme'de Yeni Dönem: Rekabetten İşbirliğine
Araştırmacılar, metin tabanlı görsel düzenleme teknologisinde devrim niteliğinde bir yaklaşım geliştirdiler. CoEdit adlı yeni sistem, geleneksel rekabet temelli yöntemlerin yarattığı çelişkileri ortadan kaldırarak, düzenleme ve yeniden yapılandırma süreçlerini işbirliği içinde yürütüyor. Bu yenilikçi yaklaşım, ek eğitim gerektirmeden çalışarak, görsel içerik üretiminde daha tutarlı ve öngörülebilir sonuçlar elde edilmesini sağlıyor. Sistem, 'ikili entropi dikkat manipülasyonu' adı verilen özel bir teknikle, uzamsal ve zamansal boyutlarda harmoni yaratıyor. Multimedia içerik üretiminin temel taşlarından biri olan metin-rehberli görsel düzenleme alanında önemli bir ilerleme kaydeden bu çalışma, gelecekte daha sofistike AI tabanlı yaratıcı araçların geliştirilmesi için zemin hazırlıyor.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Modelleri Neden Yanlış Bilgi Üretiyor? Çözüm Bulundu
Büyük dil modelleri, eğitim sürecinde yeni bilgiler öğrenirken eski doğru bilgileri unutarak yanlış içerik üretme eğilimi gösteriyor. Araştırmacılar, bu sorunun sürekli öğrenme literatüründeki yöntemlerle çözülebileceğini keşfetti. Önerilen kendini-damıtma yöntemi, modelin yeni bilgileri öğrenirken mevcut doğru bilgilerini korumasını sağlıyor. Çalışma aynı zamanda belirli parametreleri dondurarak da halüsinasyonları azaltmanın mümkün olduğunu gösteriyor. Bu bulgular, yapay zeka sistemlerinin güvenilirliğini artırmak için kritik öneme sahip.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Artık Konuşmaları Eğitim Gerektirmeden Düzenleyebiliyor
Araştırmacılar, konuşma kayıtlarındaki belirli bölümleri değiştirmek için yeni bir yapay zeka sistemi geliştirdi. AST adlı bu sistem, önceden eğitilmiş modelleri kullanarak herhangi bir ek eğitim gerektirmeden konuşma düzenlemesi yapabiliyor. Sistem, konuşmacının kimliğini ve ses karakteristiklerini korurken, sadece istenilen bölümleri değiştiriyor. Bu teknoloji, podcast düzenleme, dublaj ve ses içeriği üretimi alanlarında devrim yaratabilir. AST'nin en önemli özelliği, düzenlenen ve düzenlenmeyen bölümler arasında doğal geçişler sağlaması ve ses kalitesini bozmadan hassas değişiklikler yapabilmesi.
arXiv (CS + AI) · 25 gün önce
0
Yapay Zeka Modelleri İçin Yeni Akıllı Bilgi Filtreleme Sistemi Geliştirildi
Büyük dil modelleri bilgi üretirken dış kaynaklardan veri alırken gereksiz bilgilerin gürültü oluşturması önemli bir sorun teşkil ediyordu. Araştırmacılar, bu sorunu çözmek için AdaRankLLM adlı yeni bir sistem geliştirdi. Bu sistem, yapay zekanın hangi bilgilere ihtiyacı olduğunu dinamik olarak belirleyerek, gereksiz verileri filtreler ve sadece yararlı bilgileri kullanır. Modern dil modellerinin gürültüye karşı daha dayanıklı hale geldiği göz önünde bulundurularak tasarlanan sistem, küçük açık kaynak modellerin de bu yetenekle donatılması için iki aşamalı bir öğrenme yöntemi sunuyor. Geliştirilen yaklaşım, bilgi sıralama ve filtreleme süreçlerini optimize ederek daha verimli sonuçlar elde edilmesini sağlıyor.
arXiv (CS + AI) · 25 gün önce
0
Starlink Uyduları Radyo Teleskopları İçin Büyük Sorun Haline Geldi
Düşük yörüngedeki uydu konstellasyonlarının hızla artması, radyo astronomisi için yeni bir tehdit oluşturuyor. Starlink gibi uydu ağlarından gelen elektromanyetik girişim, geleneksel filtreleme yöntemlerini etkisiz hale getiriyor. Araştırmacılar, tek seferlik gözlemlerde düşük dereceli matris ayrışımı tekniğinin sınırlarını inceledi ve bu girişimi bastırmanın ne kadar zor olduğunu gösterdi. Çalışma, HERA radyo teleskobu verilerini kullanarak uydu kaynaklı parazitlerin astronomik gözlemleri nasıl bozduğunu analiz etti. Sonuçlar, mevcut teknolojilerin bu yeni nesil girişimle başa çıkmakta yetersiz kaldığını ortaya koyuyor.
arXiv (Astronomi) · 25 gün önce
0