“dolandırıcılık” için sonuçlar
7 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Yapay Zeka Aşk Dolandırıcılığında Nasıl Kullanılıyor? Kapsamlı Araştırma
Dünya çapında milyarlarca dolarlık zararla sonuçlanan romantik dolandırıcılık operasyonlarında yapay zekanın rolü araştırıldı. Büyük dil modellerinin (LLM) bu suç organizasyonlarında nasıl kullanıldığını inceleyen kapsamlı çalışma, 145 içeriden kişi ve 5 mağdurla yapılan görüşmeleri içeriyor. Araştırma, dolandırıcı grupların %87'sinin sistematik konuşma görevleri kullandığını ve bu görevlerin otomasyona oldukça uygun olduğunu ortaya koyuyor. Çalışmada ayrıca yapay zeka destekli dolandırıcı ajanlarla gerçek operatörlerin performansı karşılaştırılıyor ve mevcut güvenlik filtrelerinin etkinliği değerlendiriliyor.
Yapay Zeka Karar Sistemlerinde Yönetişim Kanıtlarının Bozulmasını Tespit Eden Yöntem
Dolandırıcılık tespiti ve kredi skorlama sistemlerinde karşılaşılan önemli bir sorun çözüme kavuştu. Bu sistemlerde kararların doğruluğu ancak haftalarca sonra anlaşılabiliyor ve bu sürede performans sessizce düşebiliyor. Araştırmacılar, etiket verisi gerektirmeyen yeni bir izleme sistemi geliştirdi. Sistem, zararlı bozulmaları normal değişikliklerden ayırt ederek yönetişim uyarıları üretiyor. Dört farklı izleme yöntemi kullanan kompozit yaklaşım, otomatik kararların gerekçelendirilmesi için kritik olan yönetişim kanıtlarının kalitesini korumayı amaçlıyor.
Yapay Zeka Artık Yalan Söyleyenleri Duygularından ve Kişiliklerinden Tanıyor
Araştırmacılar, yalan tespiti için devrim niteliğinde yeni bir yapay zeka sistemi geliştirdi. Bu sistem, sadece konuşmaya odaklanmak yerine kişinin duygusal durumunu ve kişilik özelliklerini de analiz ederek aldatma girişimlerini tespit ediyor. Geleneksel yöntemlerin aksine, bu yeni yaklaşım ses, görüntü ve metin verilerini birlikte değerlendirerek çok daha güvenilir sonuçlar üretiyor. Sistem, belirsizlikleri matematiksel olarak ölçerek farklı veri kaynaklarından gelen bilgileri ağırlıklı şekilde birleştiriyor. Bu teknoloji, güvenlik sektöründen kamuoyu analizlerine kadar geniş bir uygulama alanına sahip. Özellikle bilgi güvenliği ve dolandırıcılık tespitinde önemli ilerlemeler sağlayabilir.
Yapay Zeka Ajanlarını Silahlaştıran Zararlı Beceriler Keşfedildi
Araştırmacılar, büyük dil modellerinin kullandığı açık beceri ekosistemlerinde ciddi güvenlik açıkları tespit etti. İki büyük platformda yapılan kapsamlı analiz, 98.440 becerinin %4,93'ünün siber saldırılar, dolandırıcılık ve mahremiyet ihlalleri gibi zararlı amaçlarla kötüye kullanılabileceğini ortaya çıkardı. ClawHub platformunda zararlı beceri oranı %8,84'e ulaşırken, Skills.Rest'te bu oran %3,49 olarak belirlendi. Çalışma, otonom AI ajanlarının güvenlik değerlendirmesi için ilk kapsamlı kıyaslama sistemi olan HarmfulSkillBench'i de tanıttı.
Yapay Zeka Simülatörleri Veri Gizliliğinde Ne Kadar Başarılı?
Büyük dil modelleri (LLM) temelli simülatörler, geleneksel diferansiyel gizlilik yöntemlerinin zorlandığı karmaşık sentetik veri üretiminde umut vadediyor. Araştırmacılar, PersonaLedger adlı finansal simülatörü kullanarak bu teknolojinin gerçek kullanıcı istatistiklerinden türetilen gizlilik korumalı verilerle ne kadar uyumlu çalıştığını inceledi. Sonuçlar hem umut verici hem de endişe verici: Sistem dolandırıcılık tespitinde makul başarı gösterirken, yapay zekanın öğrenilmiş önyargıları nedeniyle istatistiksel dağılımlardan önemli sapmalar yaşandı. Bu bulgular, LLM tabanlı yöntemlerin daha zengin kullanıcı verilerinde kullanılmadan önce çözülmesi gereken kritik sorunları ortaya koyuyor.
Yapay zeka karar sistemlerinde gecikmiş doğrulamanın izlenmesi için yeni model
Dolandırıcılık tespiti, kredi skorlama ve tıbbi risk değerlendirmesi gibi yapay zeka sistemleri gecikmiş doğrulama sorunu yaşıyor - karar alındıktan günler hatta aylar sonra sonuç etiketleri geldiği için. Bu 'kör dönem' boyunca sistemin yönetim kanıtları bozulurken, mevcut sapma tespit yöntemleri yetersiz kalıyor. Araştırmacılar bu soruna çözüm için dört boyutlu kanıt yeterlilik modeli geliştirdi: tamlık, güncellik, güvenilirlik ve temsil edilebilirlik. Model, etiket gecikmesinin kanıt kalitesini nasıl düşürdüğünü ölçen karar hazırlığı kapısı içeriyor. Ayrıca yedi kategorilik vekil gösterge çerçevesi, etiketler olmadan yeterlilik bozulmasını tahmin ediyor. IEEE-CIS Dolandırıcılık Tespit veri setinde yaklaşık 590 bin işlemle test edilen sistem, yapay zeka güvenliğinde önemli adım.
Yapay Veri Üreticileri Dolandırıcılık Kalıplarını Taklit Etmekte Başarısız
Araştırmacılar, yapay zeki sistemlerin ürettiği sentetik verilerin gerçek dolandırıcılık davranışlarını yansıtmadığını ortaya koydu. Çalışma, mevcut yapay veri üreticilerinin istatistiksel özellikleri koruyabildiğini ancak dolandırıcıların karakteristik davranış kalıplarını yakalayamadığını gösteriyor. Bu durum, finansal güvenlik sistemlerinin geliştirilmesinde ciddi bir engel oluşturuyor. Araştırma ekibi, davranışsal sadakat adını verdikleri yeni bir değerlendirme boyutu tanımlayarak, yapay verilerin gerçek dünyadaki varlık aktivitelerinin zamansal ve yapısal kalıplarını ne ölçüde koruduğunu ölçmeyi hedefliyor.