“mahremiyet” için sonuçlar
26 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Cebinizdeki Göz: Dijital Cihazlar Nasıl Her Hareketinizi İzliyor?
Oxford Üniversitesi araştırmacısı Carissa Véliz, günlük hayatımızın vazgeçilmez parçası olan dijital cihazların asıl işlevinin ne olduğunu sorguluyor. Yastıklar rahatlık için, makaslar keskin olmak için tasarlanırken, akıllı telefonlar, tabletler ve diğer dijital araçların temel amacının kullanıcıları izlemek olduğunu savunuyor. Bu cihazlar görünürde iletişim, eğlence veya üretkenlik için tasarlanmış gibi görünse de, aslında kişisel verileri toplama ve davranış analizi yapma konusunda son derece etkili birer gözetim aracı olarak işlev görüyor. Modern teknolojinin bu gizli yüzü, mahremiyet ve kişisel özgürlük konularında önemli sorular ortaya çıkarıyor.
Küçük Yapay Zeka Modelleri Acil Tıp Triajında Doktor Asistanı Oluyor
Acil servislerde hastaların öncelik sıralaması yapılırken yaşanan tutarsızlıklar ve hatalar ciddi bir sorun oluşturuyor. Araştırmacılar, bu soruna çözüm olarak küçük boyutlu yapay zeka modellerini test etti. Çalışmada, açık kaynak kodlu Qwen2.5-7B modeli, acil servis triyaj notlarını analiz ederek hastaların aciliyet seviyelerini belirleme konusunda başarılı sonuçlar verdi. Model, özellikle pediatrik triyaj verilerle eğitildikten sonra, hem doğruluk hem de istikrar açısından büyük gelişim gösterdi. Bu yaklaşım, hasta mahremiyetini korurken doktorlara güvenilir karar destek sistemi sunma potansiyeli taşıyor. Araştırma, pahalı büyük dil modellerine alternatif olarak, daha küçük ve verimli modellerin tıbbi uygulamalarda etkili olabileceğini gösteriyor.
Mahremiyeti Koruma Teknolojisi Yazım Tarzını Değiştiriyor
Stanford ve diğer üniversitelerden araştırmacılar, diferansiyel gizlilik teknolojisinin metinlerdeki kelime değişiminin çok ötesinde etkiler yarattığını keşfetti. Kişisel verileri korumak için geliştirilen bu teknoloji, metinleri yeniden yazarken sadece kelime seçimini değil, yazının tüm iletişim karakterini sistematik olarak değiştiriyor. Araştırma, gizlilik koruma sürecinin etkileşimli işaretleri, bağlamsal referansları ve karmaşık cümle yapılarını ciddi şekilde azalttığını ortaya koyuyor. Bu bulgular, yapay zeka destekli metin privatizasyonunun dilbilimsel kimliği nasıl etkilediğini gösteren ilk kapsamlı çalışmalardan biri olarak önem taşıyor.
İnternet Takibi: AB Ülkelerinde %50 Daha Az Tracker Tespit Edildi
Uluslararası bir araştırma, web sitelerinin kullanıcıları takip etme biçimlerinin ülkelere göre dramatik farklılıklar gösterdiğini ortaya koydu. 10 farklı ülkeden 525'er web sitesinin analiz edildiği çalışmada, AB ülkelerinden erişilen sitelerde tracker sayısının AB dışı ülkelere göre yarı yarıya azaldığı belirlendi. Araştırma, yerel mahremiyet yasalarının küresel internet üzerindeki etkisini gözler önüne seriyor. Avustralya ve ABD gibi 'çıkış tabanlı' yetki alanlarında web takibi seviyelerinin en yüksek olduğu, 'izin tabanlı' sistemlere sahip ülkelerde ise takip oranlarının daha düşük kaldığı gözlemlendi. Çalışma ayrıca çerez bildirimlerinin önemini vurguluyor: Almanya'da çerez bannerlarıyla etkileşim kurmamak bile tracker sayısını %48,5 oranında azaltıyor.
Diyabet Hastalarının Şeker Verilerini Güvenle Sorgulayabileceği Yapay Zeka Sistemi
Araştırmacılar, diyabet hastalarının sürekli glikoz monitörlerinden aldıkları verileri yapay zeka ile güvenli bir şekilde sorgulayabileceği yeni bir sistem geliştirdi. CGM-Agent adlı bu framework, hasta verilerinin cihazdan çıkmadan sorulara yanıt verebiliyor. Mevcut sistemlerin sadece statik özetler sunmasının aksine, hastalar artık 'geçen hafta şeker seviyem neden yükseldi?' gibi detaylı sorular sorabiliyor. Sistem, büyük dil modellerini sadece mantık yürütme motoru olarak kullanırken, tüm hesaplamalar yerel olarak gerçekleştiriliyor. 4,180 sorudan oluşan test setinde değerlendirilen sistem, kişisel sağlık verilerinin mahremiyetini koruyarak diyabet yönetiminde yeni bir yaklaşım sunuyor.
Tıbbi Verilerde Gizlilik Koruyan Yapay Zeka Yöntemi Geliştirildi
Araştırmacılar, tıbbi verilerin gizliliğini koruyarak farklı kurumlar arasında yapay zeka modellerinin eğitilmesini sağlayan yeni bir yöntem geliştirdi. Federated RuleFit adı verilen bu sistem, hasta verilerini paylaşmadan hastanelerin ortak yapay zeka modelleri oluşturmasına olanak tanıyor. Geleneksel yapay zeka yöntemlerinin aksine, bu sistem doktorların kararları nasıl alındığını anlayabilmesini sağlayan şeffaf kurallar kullanıyor. Yöntem, diferansiyel gizlilik teknikleriyle hasta mahremiyetini korurken, farklı kurumlardan gelen veri farklılıklarını minimize ediyor. Bu gelişme, tıbbi yapay zeka uygulamalarında hem gizlilik hem de şeffaflık sorunlarına çözüm sunarak, klinik ortamlarda daha güvenilir yapay zeka sistemlerinin kullanılmasının önünü açıyor.
Ruh Sağlığı için Gizlilik Odaklı Yapay Zeka: Cihazdan Çıkmayan Tanı Sistemi
Araştırmacılar, ruh sağlığı alanında yapay zeka kullanımının önündeki en büyük engellerden biri olan gizlilik sorununa çözüm geliştirdi. Özellikle askeri, cezaevi ve uzak sağlık tesisleri gibi hassas ortamlarda, hasta verilerinin güvenlik riski nedeniyle kişiler yardım arama davranışından tamamen uzaklaşabiliyor. Mevcut AI destekli psikiyatrik karar destek sistemleri genellikle bulut tabanlı çalışır ve hassas hasta verilerinin cihazdan çıkıp harici sunuculara gönderilmesini gerektirir. Yeni geliştirilen sistem ise tamamen cihaz üzerinde çalışan bir AI platformu sunuyor. Mobil uygulama olarak tasarlanan bu sistem, büyük dil modellerini tamamen yerel olarak çalıştırarak hasta verilerinin hiçbir şekilde cihazdan çıkmamasını garanti ediyor. Bu yaklaşım, ruh sağlığı hizmetlerine erişimi artırırken aynı zamanda hasta mahremiyetini koruyor.
Güvenli AI Sisteminde Kritik Güvenlik Açığı Keşfedildi
Araştırmacılar, yapay zeka modellerinin güvenli çıkarım yapması için tasarlanan Euston adlı sistemde ciddi bir güvenlik açığı tespit etti. IEEE güvenlik konferansında sunulan bu sistem, veri iletiminde yaklaşık 3 kata kadar bandwidth tasarrufu sağlıyordu. Ancak yeni araştırma, sistemin kullandığı tekli değer ayrışımı tabanlı protokolün, özel verilerin ifşa olmasına yol açabileceğini ortaya koydu. Model sahibi kişiler, kullanıcıların gizli verilerini kolayca elde edebiliyor. Bu keşif, güvenli AI sistemlerinin tasarımında mahremiyet korumasının ne kadar kritik olduğunu bir kez daha gözler önüne seriyor.
Kuantum Teknolojisi ile Mikroşebeke Güvenliğinde Yeni Dönem
Küçük modüler nükleer reaktörler (SMR'ler) ve yapay zeka fabrikaları için tasarlanan mikroşebekeler, enerji altyapısının geleceğini şekillendiriyor. Ancak bu dağıtık güç sistemlerinin siber güvenliği kritik önem taşıyor. Araştırmacılar, kuantum teknolojisinin gücünden yararlanarak mikroşebeke güvenliğini artıran yenilikçi bir çerçeve geliştirdi. Bu yaklaşım, güvenli kuantum ağları, anonim bildirim sistemleri ve kuantum rastgele sayı üretimini bir araya getirerek enerji altyapılarının bütünlük, gizlilik ve mahremiyetini güçlendiriyor.
Demans Hastalarına Özel Robotik Terapi Sistemi Geliştirildi
Araştırmacılar, demans hastaları için kişiselleştirilmiş bilişsel egzersiz desteği sunan yenilikçi bir robotik platform geliştirdi. 'Speaking Memories' adlı sistem, bakım verenlerin katkılarını yapay zeka ile birleştirerek hastalarla duygusal bağ kurabilen robotlar yaratıyor. Platform, hasta mahremiyetini korurken farklı robot modellerinde çalışabiliyor ve bakım evlerinde başarıyla test ediliyor. Bu yaklaşım, demans bakımında teknoloji kullanımında önemli bir adım olarak değerlendiriliyor.
Makine Unutma: Yapay Zeka Modellerinden Veri Silme Teknolojileri
Dünya genelinde 'unutulma hakkı' yasalaşırken, kullanıcılar makine öğrenimi platformlarından ayrılmak istediklerinde mahremiyetlerini korumak için yeni teknolojiler geliştiriliyor. Makine unutma, eğitilmiş bir yapay zeka modelinin belirli eğitim verilerinin katkısını tamamen ortadan kaldırmasını sağlayan bir süreç. ArXiv'de yayınlanan kapsamlı araştırma, mevcut makine unutma yöntemlerini dört ana kategoride sınıflandırıyor: merkezi unutma, dağıtık veri unutma, unutma doğrulama ve güvenlik konuları. Araştırmacılar, bu teknolojilerin kullanıcı gizliliği açısından kritik önemini vurguluyor. Özellikle merkezi unutma yöntemleri, kesin ve yaklaşık olmak üzere iki alt kategoriye ayrılıyor. Bu teknolojiler, gelecekte yapay zeka sistemlerinde veri güvenliği ve kullanıcı hakları açısından önemli bir rol oynayacak.
2020 ABD Nüfus Sayımı Düşünülenden Çok Daha Gizli
ABD'nin 2020 nüfus sayımında kullanılan gizlilik koruma sisteminin, açıklanan garantilerden çok daha güçlü mahremiyet sağladığı ortaya çıktı. Census Bureau, bireysel yanıtları korumak için diferansiyel gizlilik teknolojisini kullanmış ve verilere kontrollü gürültü eklemişti. Yeni araştırma, ulusal seviyeden mahalle seviyesine kadar sekiz farklı coğrafi düzeyde gizlilik korumasının beklenenin üzerinde olduğunu gösteriyor. Bu bulgu, federal fon dağıtımı ve seçim bölgesi belirleme gibi kritik kararlar için kullanılan nüfus sayımı verilerinin hem doğruluğunu hem de bireysel mahremiyeti koruma konusunda önemli bir başarıya işaret ediyor.
Yapay Zeka Modelleri Nasıl 'Unutmalı'? Yeni Yöntem Mahremiyet Sorununu Çözüyor
Görüntü-dil yapay zeka modelleri, fotoğraflardaki kişileri tanıyarak özel bilgilerini ifşa edebiliyor ve bu durum ciddi mahremiyet endişeleri yaratıyor. Araştırmacılar, modellerin belirli bilgileri 'unutması' için makine unutma yöntemleri geliştiriyor ancak mevcut yaklaşımlar yetersiz kalıyor. Modeller unutma işleminden sonra anlamsız, yanlış veya aşırı reddedici yanıtlar veriyor. Yeni bir araştırma, bu soruna çözüm getiren PUBG adlı yöntemi öneriyor. Bu yaklaşım, modellerin mahremiyeti korurken aynı zamanda bilgilendirici ve görsel temelli yanıtlar vermesini sağlıyor. Çalışma, yapay zeka güvenliği alanında önemli bir adım teşkil ediyor.
Yapay Zeka Modellerinden Gizliliği Koruma: Yeni Savunma Sistemi Geliştirildi
Araştırmacılar, büyük dil modellerinin kullanıcı metinlerinden yaş, konum ve cinsiyet gibi kişisel bilgileri çıkarabilme yeteneğine karşı yeni bir savunma sistemi geliştirdi. TRACE ve RPS adlı iki bileşenden oluşan bu sistem, hem gizliliği tehdit eden metin öğelerini hassas bir şekilde maskeliyor hem de yapay zeka modellerinin bu tür çıkarımlar yapmasını engelliyor. Mevcut anonimleştirme yöntemlerinin aksine, kelime düzeyinde hassasiyet sağlayan bu yaklaşım, kullanıcıların sosyal medya ve çevrimiçi platformlardaki mahremiyetini korumada daha etkili sonuçlar veriyor. Çalışma, yapay zekanın gizlilik ihlalleri konusunda artan endişelere teknolojik bir çözüm sunması açısından önemli.
Yapay Zeka Gizliliği Adalet ve Güvenlik Açısından Risk Taşıyor
Hassas veriler üzerinde çalışan yapay zeka sistemlerinde gizliliği korumak için kullanılan diferansiyel mahremiyet yöntemlerinin beklenmedik yan etkileri olduğu ortaya çıktı. MIT ve Stanford araştırmacılarının yaptığı yeni çalışma, gizlilik için eklenen matematiksel gürültünün AI modellerinin farklı grupları eşit şekilde öğrenmesini engellediğini ve siber saldırılara karşı savunmasızlık yarattığını gösteriyor. Bu durum, özellikle sağlık ve finans gibi kritik alanlarda kullanılan AI sistemlerinde hem algoritmik adaletsizlik hem de güvenlik açıkları yaratabilir. Araştırma, gizlilik ve performans arasındaki dengeyi yeniden düşünmemiz gerektiğini ortaya koyuyor.
Yapay Zeka Ajanlarını Silahlaştıran Zararlı Beceriler Keşfedildi
Araştırmacılar, büyük dil modellerinin kullandığı açık beceri ekosistemlerinde ciddi güvenlik açıkları tespit etti. İki büyük platformda yapılan kapsamlı analiz, 98.440 becerinin %4,93'ünün siber saldırılar, dolandırıcılık ve mahremiyet ihlalleri gibi zararlı amaçlarla kötüye kullanılabileceğini ortaya çıkardı. ClawHub platformunda zararlı beceri oranı %8,84'e ulaşırken, Skills.Rest'te bu oran %3,49 olarak belirlendi. Çalışma, otonom AI ajanlarının güvenlik değerlendirmesi için ilk kapsamlı kıyaslama sistemi olan HarmfulSkillBench'i de tanıttı.
Yapay Zeka ve Mahremiyet: Kaynak Dağıtımında Yeni Denge Arayışı
Makine öğrenmesi algoritmaları, sınırlı kaynakların dağıtımında giderek daha fazla kullanılıyor. Ancak son araştırmalar, bireysel hedefleme stratejilerinin her zaman en etkili çözüm olmayabileceğini gösteriyor. Stanford ve diğer üniversitelerden araştırmacılar, diferansiyel mahremiyet ilkelerini kaynak dağıtım sistemlerine uygulayan yeni bir çalışma yayınladı. Çalışma, basit grup düzeyindeki dağıtım stratejilerinin bazen bireysel hedeflemeden daha iyi sonuç verebileceğini ve aynı zamanda mahremiyet koruması sağlayabileceğini ortaya koyuyor. Bu bulgu, hem verimlilik hem de gizlilik açısından tek bir çözümün öne çıkması nedeniyle alışılmadık bir durum yaratıyor. Araştırma, sosyal yardım programları, sağlık kaynaklarının dağıtımı ve eğitim müdahalelerinde kullanılan algoritmaların tasarımında önemli çıkarımlar sunuyor.
Yapay Zeka İçin Güvenli Veri Üretiminde Yeni Yaklaşım: DPDSyn
Araştırmacılar, yapay zeka modellerinin eğitimi için güvenli sentetik veri üretiminde çığır açan bir yöntem geliştirdi. DPDSyn adlı bu yaklaşım, diferansiyel gizlilik prensiplerine uygun olarak veri setleri oluşturmak için yeni bir strateji benimsiyor. Geleneksel yöntemler, orijinal verinin düşük boyutlu dağılımlarını seçerek sentetik veri üretmeye odaklanırken, bu yaklaşım doğrudan görev odaklı bir model kullanıyor. Yöntem, önce orijinal veri seti üzerinde diferansiyel gizliliği koruyan bir AI modeli eğitiyor, ardından bu modeli kullanarak yeni veri setleri sentezliyor. Bu yaklaşım, uygun düşük boyutlu dağılımları seçme zorluğunu ortadan kaldırarak, sentetik verinin kullanılabilirliğini artırmayı hedefliyor. Diferansiyel gizlilik, verinin bireysel mahremiyetini korurken istatistiksel analizlere olanak tanıyan önemli bir güvenlik konsepti.
Çoklu Sekme Trafiğini Ayıran Yeni AI Sistemi: DEMUX ile Daha Güvenli İnternet
Araştırmacılar, Tor gibi anonim ağlarda kullanıcıların hangi siteleri ziyaret ettiğini tespit eden saldırılara karşı yeni bir savunma geliştirdi. DEMUX adlı sistem, kullanıcılar aynı anda birden fazla sekme açtığında oluşan karışık trafik yapısını analiz ederek güvenlik açıklarını kapatıyor. Mevcut derin öğrenme yöntemleri tek sekme kullanımında yüksek başarı gösterse de, çoklu sekme durumunda performansları ciddi şekilde düşüyor. Yeni sistem, sınır korumalı pencere bölümleme, çok ölçekli paralel CNN ve zamansal ilişkilendirme modüllerini bir araya getirerek bu sorunu çözüyor. Geliştirilen yöntem, internet trafiğinin daha güvenli hale gelmesi ve kullanıcı mahremiyetinin korunması açısından önemli bir adım sayılıyor.
Yapay Zeka Modelleri Gizlilik Algoritmalarını Ne Kadar İyi Anlıyor?
Araştırmacılar, büyük dil modellerinin diferansiyel gizlilik algoritmalarını ne ölçüde anlayabildiğini test etmek için DPrivBench adlı yeni bir değerlendirme sistemi geliştirdi. Diferansiyel gizlilik, veri setlerinden bilgi çıkarırken bireysel mahremiyeti koruyan matematiksel bir yöntem olmasına rağmen, uygulanması uzman bilgisi gerektiriyor. Çalışma, en güçlü yapay zeka modellerinin bile temel ders kitabı örneklerinde başarılı olurken, karmaşık algoritmalarda ciddi zorlanma yaşadığını ortaya koyuyor. Bu durum, gizlilik koruma alanında yapay zekanın henüz insan uzmanların yerini alamayacağını gösteriyor.
EventCrab: Olay Tabanlı Eylem Tanıma İçin Çığır Açan Hibrit Yaklaşım
Araştırmacılar, geleneksel kamera sistemlerinin aksine yüksek temporal çözünürlük ve mahremiyet koruması sağlayan olay tabanlı eylem tanıma teknolojisinde yeni bir döneme işaret eden EventCrab çerçevesini geliştirdi. Bu yenilikçi sistem, olay verilerinin benzersiz özelliklerini - zaman boyutunda yoğun, uzay boyutunda seyrek olan asenkron yapılarını - dikkate alarak iki farklı yaklaşımı ustaca birleştiriyor. Hafif çerçeve tabanlı ağlar ile ağır nokta tabanlı ağları harmanlayan EventCrab, hem doğruluk hem de verimlilik açısından denge kuruyor. Bu teknoloji, özellikle gizlilik gerektiren uygulamalarda ve yüksek hızlı hareket analizinde devrim yaratabilir.
Yapay zeka kişi tanımada gerçek veri ihtiyacını ortadan kaldırıyor
Araştırmacılar, metin tabanlı kişi tanıma sistemleri için tamamen sentetik veri kullanmanın etkinliğini araştıran kapsamlı bir çalışma gerçekleştirdi. Geleneksel yöntemler, gerçek kişi fotoğrafları ve manuel açıklamalar gerektirdiği için mahremiyet endişeleri ve yüksek maliyetler doğururken, yeni yaklaşım bu sorunları çözmeyi hedefliyor. Çalışma, gerçek veriye hiç ihtiyaç duymadan çeşitli kimlik merkezli görüntüler üretebilen birleşik bir sentetik veri üretim pipeline'ı öneriyor. Bu yaklaşım, otomatik prompt oluşturma stratejileri kullanarak sınıflar arası görüntü üretimi gerçekleştiriyor. Araştırma, sentetik verinin çeşitli gerçek dünya senaryolarındaki etkinlik sınırlarını sistematik olarak incelemeyi amaçlıyor ve bu alanda ilk kapsamlı deneysel çalışma niteliği taşıyor.
Trafik Tahmini İçin Kişiselleştirilmiş Yapay Zeka Sistemi Geliştirildi
Araştırmacılar, akıllı ulaşım sistemleri için gizliliği koruyarak trafik tahmininde bulunabilen yeni bir yapay zeka sistemi geliştirdi. AutoFed adlı bu sistem, federe öğrenme teknolojisini kullanarak farklı bölgelerin trafik verilerini paylaşmadan ortak bir model eğitiyor. Geleneksel yöntemlerin aksine, her bölgenin kendine özgü trafik özelliklerini dikkate alarak daha kişiselleştirilmiş tahminler sunuyor. Sistem, taksi hizmetleri, şehir planlama ve araç filo yönetimi gibi kritik alanlarda kullanılabilir. Araştırma, veri mahremiyeti endişelerinin yarattığı bilgi silosu problemine çözüm getirirken, her bölgenin farklı trafik davranışlarını da göz önünde bulunduruyor.
Yapay Zeka Meme Kanserini Daha Güvenli Tespit Ediyor: Sentetik Görüntü Devrimi
Araştırmacılar, hasta verilerini paylaşmadan hastaneler arası işbirliği sağlayan federe öğrenme yöntemiyle meme kanseri tespitinde çığır açan bir başarı elde etti. Çalışmada, gerçek ultrason görüntülerinin yanına yapay zeka tarafından üretilen sentetik görüntüler eklenerek modelin performansı önemli ölçüde artırıldı. Üç farklı veri setinde yapılan denemelerde, sentetik görüntülerin dengeli kullanımıyla tespit başarısı yüzde 94'lere kadar yükseldi. Bu yaklaşım, özellikle küçük veri setleri bulunan tıp kurumları için umut verici sonuçlar sunuyor ve hasta mahremiyetini korurken tanı kalitesini artırıyor.