“büyük veri” için sonuçlar
81 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Büyük Veri Kümelerini Eşleştiren Yeni Algoritma Dakikalar İçinde Sonuç Veriyor
Veri biliminin temel sorunlarından biri olan farklı nokta kümelerinin birbirleriyle eşleştirilmesi, yeni bir algoritma sayesinde çok daha hızlı hale geldi. Araştırmacılar, Gromov-Wasserstein çerçevesini kullanarak geliştirdikleri yöntemle, yüz binlerce veriyi dakikalar içinde işleyebilen bir sistem oluşturdu. Geleneksel optimal transport yöntemleri döndürme işlemlerine karşı hassas olurken, bu yeni yaklaşım hem rotasyonlara dayanıklı hem de hesaplama açısından çok daha verimli. Algoritma, bellek kullanımını doğrusal, zaman karmaşıklığını ise kübik yerine karesel seviyeye indiriyor. Bu gelişme, büyük ölçekli geometrik uygulamalarda önemli bir ilerleme sağlıyor.
Gizlilik Filtrelerinde Yeni Dönem: Artık Veriler Daha Güvenli
Araştırmacılar, kişisel verilerin gizliliğini korurken analiz yapılmasını sağlayan 'gizlilik filtreleri' konusunda önemli bir ilerleme kaydetti. Diferansiyel gizlilik mekanizmalarında kullanılan bu filtreler, analistlerin sorgularına göre uyarlanabilen dinamik yapılar sunuyor. Yeni geliştirilen 'artık filtreleri' teorisi, mevcut gizlilik filtrelerini birleştiren kapsamlı bir yaklaşım getiriyor. Çalışma, özellikle Gauss diferansiyel gizlilik filtresinde önemli iyileştirmeler sağladığını ve doğal filtrelerin daha verimli gizlilik bütçesi kullanımı vaat ettiğini gösteriyor. Bu gelişme, büyük veri analizlerinde gizlilik ve fayda arasındaki dengeyi optimize etmek açısından kritik öneme sahip.
Yapay zeka 3D nesneleri parçalara ayırmayı öğrendi
Araştırmacılar, 3D nesneleri otomatik olarak anlamlı parçalara ayırabilen yenilikçi bir yapay zeka sistemi geliştirdi. SegviGen adlı bu sistem, mevcut 3D üretici modellerden yararlanarak nesnelerin farklı bölümlerini renkli kodlarla ayırt ediyor. Geleneksel yöntemlerin aksine, büyük veri setlerine ya da yoğun hesaplama gücüne ihtiyaç duymuyor. Sistem, kullanıcı etkileşimli segmentasyon, tam otomatik bölümleme ve 2D rehberlikli segmentasyon gibi farklı modlarda çalışabiliyor. Bu teknoloji, 3D modelleme, oyun geliştirme, robotik ve sanal gerçeklik uygulamalarında önemli ilerlemeler sağlayabilir. Özellikle karmaşık 3D nesnelerin analizinde ve manipülasyonunda yeni olanaklar sunuyor.
Derin Öğrenmede Yeni Matematik Yaklaşımı: Rastgele Matris Teorisi Genişletildi
Yapay zeka alanında devrim yaratabilecek yeni bir matematiksel yaklaşım geliştirildi. Araştırmacılar, derin sinir ağlarının karmaşık davranışlarını anlamak için Rastgele Matris Teorisi'ni genişletti. Geleneksel yöntemler, yüksek boyutlu verilerle çalışan modern yapay zeka modellerinde yetersiz kalıyordu. Yeni geliştirilen 'Yüksek Boyutlu Eşdeğer' kavramı, hem doğrusal olmayan modelleri hem de büyük veri setlerini analiz etmeyi mümkün kılıyor. Bu çalışma, yapay zekanın nasıl çalıştığını daha iyi anlamamızı sağlayacak ve gelecekteki AI modellerinin tasarımında önemli rol oynayabilir.
Veri İşlemede Yeni Algoritma: Filtre Optimizasyonu İçin Yapay Zeka Tabanlı Sistem
Araştırmacılar, büyük veri işleme süreçlerinde önemli performans artışları sağlayan yeni bir algoritma geliştirdi. 'Predicate pushdown' adı verilen bu optimizasyon tekniği, verileri işleme sürecinin en başında filtreleyerek, özellikle Python ve Scala gibi dillerde yazılmış karmaşık fonksiyonların yükünü azaltıyor. Modern veri analitiğinde bu fonksiyonlar en maliyetli işlemler arasında yer alırken, yeni sistem filtreleri bu pahalı işlemlerden önce uygulayarak önemli hız kazanımları elde ediyor. Çalışma, iki farklı veri alt kümesini işleyen programlar arasında matematiksel bir ilişki kurarak, optimizasyonun doğruluğunu garanti altına alıyor.
Büyük Veri Dizilerinde Ortak Kalıpları Bulan Yeni Algoritma Geliştirildi
Araştırmacılar, binlerce karakter içeren uzun veri dizilerinde ortak kalıpları tespit edebilen yenilikçi bir algoritma geliştirdi. MLCS (Çoklu En Uzun Ortak Alt Dizi) madenciliği olarak bilinen bu teknik, genetik, metin analizi ve veri madenciliği alanlarında kritik öneme sahip. Mevcut yöntemler 1000'den fazla karakterlik dizilerle başa çıkamıyordu, bu da büyük veri analizi için ciddi bir engel oluşturuyordu. Yeni KP-MLCS algoritması, 'anahtar nokta' yaklaşımını kullanarak 10 bin karaktere kadar olan büyük dizilerde bile ortak kalıpları başarıyla tespit edebiliyor. Sistem aynı zamanda bulunan kalıpları görsel olarak gösterebilen ve gerçek zamanlı analiz yapabilen çevrimiçi bir araç olarak sunuluyor. Bu gelişme, genomik verilerden sosyal medya analizine kadar pek çok alanda büyük veri işleme kapasitesini önemli ölçüde artıracak.
Büyük Veri Kümelerini Parçalara Ayıran Yeni Matematiksel Yöntem Geliştirildi
Araştırmacılar, büyük veri kümelerini daha küçük ve bağımsız parçalara ayırmak için yeni bir matematiksel yaklaşım geliştirdi. Formal kavram analizi alanında yapılan bu çalışma, özellikle belirsizlik içeren verilerle çalışırken büyük veri setlerinin işlenmesini kolaylaştırabilir. Geliştirilen yöntem, bulanık mantık çerçevesinde bağımsız alt bağlamların tanımlanmasına ve kavram kafeslerinin bloklar halinde ayrıştırılmasına dayanıyor. Bu yaklaşım, veri madenciliği ve yapay zeka uygulamalarında eksik ya da belirsiz bilgilerin bulunduğu büyük veri setlerinin daha verimli işlenmesine olanak sağlayabilir.
Büyük Veri Tabanlarını Parçalara Ayırma Yönteminde Yeni Yaklaşım
Araştırmacılar, büyük veri tabanlarını daha küçük ve bağımsız parçalara ayırarak analiz etmeyi kolaylaştıran yeni bir matematiksel yöntem geliştirdi. Bu yaklaşım, özellikle eksik ve kusurlu verilerle çalışırken bilgi çıkarma sürecini optimize ediyor. Bulanık biçimsel kavram analizi çerçevesinde geliştirilen yöntem, modal operatörler kullanarak bağımsız alt-bağlamları tespit edebiliyor. Bu gelişme, makine öğrenmesi ve yapay zeka uygulamalarında veri işleme verimliliğini artırarak, gerçek dünya problemlerinin çözümünde önemli katkılar sağlayabilir. Özellikle büyük ölçekli veri analizinde karşılaşılan hesaplama karmaşıklığını azaltması açısından dikkat çekici.
Analog optik bilgisayar 6 milyon verilik kredi onayında test edildi
Araştırmacılar, analog optik bilgisayarın gerçek dünya verilerindeki performansını test etmek için 5,84 milyon ABD mortgage kaydını kullandı. Bu çalışma, optik bilgisayarların küçük ölçekli görüntü işleme testlerinin ötesine geçen ilk büyük veri uygulaması olma özelliği taşıyor. Sonuçlar, analog optik bilgisayarın %94,6 doğruluk oranına ulaştığını, ancak XGBoost algoritmasının %97,9'luk performansının gerisinde kaldığını gösteriyor. Araştırma, optik bilgisayarlardaki doğruluk kayıplarının üç ana kaynağını belirledi: kodlama, mimari tasarım ve donanım sınırlamaları. İlginç şekilde, donanımsal kusurların performansta ölçülebilir bir etki yaratmadığı gözlendi. Bu bulgular, analog optik bilgisayarların yapay zeka uygulamalarında kullanılabilirliğini değerlendirmek için önemli veriler sunuyor.