“şeffaflık” için sonuçlar
39 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
İngiltere'de AI şeffaflığı: Halk, devletin yapay zeka kullanımını görebilecek
İngiltere'de yeni düzenlemeler, kamu kurumlarının yapay zeka kullanımına dair bilgilerin halka açıklanması gerektiğini teyit etti. Karar, New Scientist dergisinin bir bakanın ChatGPT kayıtlarını talep etmesi üzerine geldi. Düzenleyici otoriteler, devlet dairelerinin AI ile üretilen içerikler hakkında bilgi paylaşım taleplerini değerlendirmesi gerektiğini açıkladı. Bu gelişme, kamu yönetiminde yapay zeka kullanımının şeffaflığı açısından önemli bir adım olarak değerlendiriliyor. Vatandaşların, devlet kurumlarının hangi konularda AI'dan yararlandığını ve nasıl kullandığını öğrenme hakkına sahip olması, demokratik hesap verebilirlik ilkesini güçlendiriyor. Yeni kurallar, özellikle kamu politikalarının oluşturulmasında AI'nın rolünün görünür kılınması konusunda öncü bir yaklaşım sergiliyor.
Stevia'dan şeffaf ve esnek elektronik: Tatlı bir devrim
Günlük yaşamda kullandığımız yapay tatlandırıcı stevia, elektronik dünyasında beklenmedik bir çığır açabilir. Güney Koreli bilim insanları, stevia'nın yapısından ilham alarak şeffaf, esnek ve güçlü elektronik cihazlar geliştirmeyi başardı. Bu yenilikçi yaklaşım, geleneksel hidrojel tabanlı triboelektrik nanojeneratörlerin düşük performans, zayıf mekanik dayanıklılık ve yetersiz şeffaflık gibi temel sorunlarını aynı anda çözüyor. Araştırma, biyomimetik tasarım ilkelerini kullanarak doğal malzemelerin elektronik uygulamalardaki potansiyelini ortaya koyuyor.
Bolek: İlaç Keşfinde Devrim Yaratacak Moleküler Akıl Yürütme Modeli
Araştırmacılar, ilaç geliştirme süreçlerinde moleküllerin özelliklerini analiz edebilen ve kararlarını açıklayabilen yeni bir yapay zeka modeli geliştirdi. Bolek adı verilen bu model, moleküler yapıları doğal dil ile birleştirerek, hem yüksek doğrulukla tahminler yapabiliyor hem de bu tahminlerin nedenlerini anlaşılır şekilde açıklayabiliyor. Geleneksel modeller sadece sayısal sonuçlar verirken, Bolek moleküler özellikleri detaylı bir şekilde analiz ederek mantıklı açıklamalar sunuyor. Model, 15 farklı biyoloji görevinde test edildi ve temel modeline kıyasla önemli performans artışları gösterdi. Bu gelişme, ilaç keşfi süreçlerinde şeffaflık ve güvenilirlik açısından büyük bir adım olarak değerlendiriliyor.
HyperCertificates: Dinamik Sistemlerin Güvenliğini Doğrulayan Yeni Yöntem
Araştırmacılar, bilgisayar sistemlerinin güvenlik ve gizlilik özelliklerini doğrulamak için HyperCertificates adı verilen yeni bir matematiksel framework geliştirdi. Bu yöntem, geleneksel doğrulama tekniklerinin ötesine geçerek, sistemlerin birden fazla çalışma senaryosu arasındaki ilişkileri analiz ediyor. HyperLTL mantıksal formüllerini kullanan sistem, özellikle gizlilik, şeffaflık ve dayanıklılık gibi kritik güvenlik özelliklerini değerlendirmede öne çıkıyor. Yöntem, öngörü modelleme ve bariyer fonksiyonlarını birleştirerek dinamik sistemlerin karmaşık davranışlarını matematiksel olarak kanıtlayabiliyor. Bu gelişme, otonom araçlardan finansal sistemlere kadar geniş bir yelpazede kullanılabilecek daha güvenilir yazılım sistemlerinin tasarlanmasına katkı sağlayabilir.
NHS Yapay Zeka Korkusuyla Yazılım Kodlarını Gizlemeye Başladı
İngiltere'nin ulusal sağlık sistemi NHS, yapay zeka modellerinin siber saldırı yeteneklerinden endişe ederek açık kaynak politikasını değiştiriyor. Kamu parasıyla geliştirilen tüm yazılımları halka açık yapma kuralından vazgeçen NHS, özellikle Mythos gibi bilgisayar korsanlığı yapabilen AI modellerinin tehdit oluşturduğunu belirtiyor. Bu karar, şeffaflık ile güvenlik arasındaki dengeyi yeniden tanımlarken, yapay zekanın siber güvenlik alanındaki artan etkisini de gözler önüne seriyor. Sağlık verilerinin korunması kritik önem taşırken, açık kaynak yazılımın faydalarından vazgeçmek de tartışma yaratıyor.
WST-X: Yapay ses sahtekarlarını yakalayan yeni nesil dedektör sistemi
Araştırmacılar, deepfake ses kayıtlarını tespit etmek için WST-X adlı yenilikçi bir özellik çıkarma sistemi geliştirdi. Bu sistem, wavelet dağılım dönüşümünü (WST) kullanarak hem şeffaflık hem de yüksek performans sunuyor. Geleneksel yöntemler ya yorumlanabilir ama sınırlı ya da güçlü ama anlaşılması zor özellikler üretiyordu. WST-X, her iki yaklaşımın avantajlarını birleştirerek çok ölçekli ve deforme edilmeye dayanıklı özellikler üretiyor. Deepfake-Eval-2024 benchmark testlerinde mevcut sistemleri büyük farkla geride bırakarak, yapay zeka destekli ses manipülasyonlarına karşı daha etkili koruma sağlıyor. Bu gelişme, ses deepfake'lerinin giderek sofistike hale geldiği dönemde özellikle önemli.
Yapay Zeka Güvenliği İçin Yeni Hibrit Mimari: Alignment Flywheel
Yapay zeka sistemlerinin güvenliğini artırmak için geliştirilen yeni bir hibrit çok-ajanslı sistem mimarisi tanıtıldı. 'Alignment Flywheel' adı verilen bu yaklaşım, karar verme süreçlerini güvenlik yönetiminden ayırarak daha şeffaf ve denetlenebilir AI sistemleri oluşturmayı hedefliyor. Sistem, üç temel bileşenden oluşuyor: karar önerileri üreten Proposer, güvenlik sinyalleri veren Safety Oracle ve riskleri yöneten yönetişim katmanı. Bu mimari, özellikle güçlü otonom sistemlerin güvenlik davranışlarının eğitim süreciyle iç içe geçmesi ve şeffaflık eksikliği sorunlarına çözüm getiriyor.
AI Sistemleri Artık Politikacıların Kaçamak Yanıtlarını Tespit Edebiliyor
Araştırmacılar, siyasi röportajlardaki kaçamak yanıtları ve belirsiz ifadeleri otomatik olarak tespit edebilen yapay zeka sistemi geliştirdi. Bükreş Üniversitesi ekibi, RoBERTa dil modeline dayalı sistem ile politikacıların sorulara ne kadar açık yanıt verdiklerini ve hangi kaçamak stratejilerini kullandıklarını belirleyebiliyor. Sistem, uzun metinleri parçalara bölen özel tekniklerle standart yapay zeka modellerinin sınırlarını aşıyor ve %80 doğrulukla kaçamak yanıtları tespit ediyor. Bu gelişme, siyasi iletişimin şeffaflığının artırılması ve seçmenlerin daha bilinçli karar vermesi açısından önemli.
KTaO3 Yüzeyinde Süperiletken İki Boyutlu Elektron Gazı Üretimi
Bilim insanları, KTaO3 kristalinin yüzeyinde süperiletken özellik gösteren iki boyutlu elektron gazı üretmek için yeni ve basit bir yöntem geliştirdi. Magnezyum kullanarak gerçekleştirilen bu teknik, güçlü spin-yörünge etkileşimi ve düşük taşıyıcı yoğunluklu süperiletkenlik gibi ilginç fiziksel olayların araştırılmasına olanak tanıyor. Özellikle, geleneksel karmaşık kimyasal katman yöntemlerinin aksine, bu yeni yaklaşım elektronik yapının doğrudan spektroskopik analizi için şeffaflık sağlıyor. Bu gelişme, kuantum malzemeler ve süperiletkenlik araştırmalarında önemli bir adım olarak değerlendiriliyor.
Tıbbi Verilerde Gizlilik Koruyan Yapay Zeka Yöntemi Geliştirildi
Araştırmacılar, tıbbi verilerin gizliliğini koruyarak farklı kurumlar arasında yapay zeka modellerinin eğitilmesini sağlayan yeni bir yöntem geliştirdi. Federated RuleFit adı verilen bu sistem, hasta verilerini paylaşmadan hastanelerin ortak yapay zeka modelleri oluşturmasına olanak tanıyor. Geleneksel yapay zeka yöntemlerinin aksine, bu sistem doktorların kararları nasıl alındığını anlayabilmesini sağlayan şeffaf kurallar kullanıyor. Yöntem, diferansiyel gizlilik teknikleriyle hasta mahremiyetini korurken, farklı kurumlardan gelen veri farklılıklarını minimize ediyor. Bu gelişme, tıbbi yapay zeka uygulamalarında hem gizlilik hem de şeffaflık sorunlarına çözüm sunarak, klinik ortamlarda daha güvenilir yapay zeka sistemlerinin kullanılmasının önünü açıyor.
Yapay Zeka Sağlayıcıları Artık Kandıramayacak: Yeni Denetim Sistemi Geliştirildi
Araştırmacılar, yapay zeka hizmet sağlayıcılarının kullanıcıları kandırmasını önleyen yeni bir denetim protokolü geliştirdi. Şirketler güçlü modeller reklamı yapıp gizlice daha ucuz, zayıf modeller sunabiliyordu. Yeni sistem, kriptografik taahhüt mekanizmalarıyla bu hileli değişimleri tespit ediyor. Protokol, modellerin çıktılarını özel algoritmalarla analiz ederek gerçek performansı doğruluyor. Test sonuçları, sistemin 17 farklı kandırma stratejisine karşı etkili olduğunu gösteriyor.
Yapay Zeka Doktorları İçin Güvenilir Muhakeme Sistemi Geliştirildi
Büyük dil modellerinin tıbbi tanı süreçlerinde kullanımındaki en büyük sorun, doğru cevapları yanlış mantıkla üretmeleri. Araştırmacılar, bu kritik problemi çözmek için Toulmin argumentation modelini temel alan yeni bir eğitim sistemi geliştirdi. Curriculum Goal-Conditioned Learning adı verilen bu yöntem, AI sistemlerinin sadece doğru tanı koymasını değil, aynı zamanda bu tanıya nasıl ulaştığını şeffaf şekilde açıklayabilmesini sağlıyor. Sağlık alanında hasta güvenliği için şeffaflık hayati önem taşıdığından, bu çalışma yapay zekanın klinik karar destek sistemlerinde güvenilir kullanımına önemli bir katkı sunuyor.
Yapay Zeka Artık Düşünce Süreçlerini Görsel Olarak Gösterebiliyor
Araştırmacılar, büyük dil modellerinin mantık yürütme süreçlerini görselleştiren yenilikçi bir yöntem geliştirdi. Render-of-Thought (RoT) adlı bu yaklaşım, yapay zekanın adım adım düşünce zincirini metinsel ifadelerden görsel temsillere dönüştürüyor. Bu sayede yapay zekanın nasıl sonuca ulaştığını takip etmek ve anlamak mümkün hale geliyor. Geleneksel Chain-of-Thought yönteminin fazla kelime kullanma sorununun üstesinden gelen bu teknik, mevcut görsel-dil modellerinin görme kabiliyetlerini kullanarak ek eğitim gerektirmeden uygulanabiliyor.
Yapay Zeka Araçlarında Güvenlik Şeffaflığı: Kullanıcılar Neyi Merak Ediyor?
Amerikalı araştırmacılar, yapay zeka araçlarının güvenlik ve gizlilik politikalarının kullanıcı tercihleri üzerindeki etkisini inceledi. 21 kullanıcıyla yapılan görüşmelerde, mevcut güvenlik bilgilerinin genellikle eksik ve güvenilmez algılandığı ortaya çıktı. Kullanıcılar yapay zeka araçlarını seçerken güvenlik politikalarından çok popülerlik gibi dolaylı göstergelere güveniyor. Araştırma, güvenlik konusundaki belirsizliklerin özellikle kritik durumlarda kullanıcıların bu araçları kullanma isteklerini sınırladığını gösteriyor. Bu bulgular, yapay zeka şirketlerinin daha şeffaf ve anlaşılır güvenlik iletişimi geliştirmesi gerektiğini ortaya koyuyor.
Robotlar Artık Neden Hareket Ettiklerini Açıklayabilecek
Araştırmacılar, robotların sadece komutları yerine getirmekle kalmayıp, eylemlerinin mantığını da açıklayabileceği yeni bir yapay zeka modeli geliştirdi. ReFineVLA adı verilen bu sistem, görme-dil-eylem modellerini, uzman öğretmen modellerden öğrendikleri mantıksal gerekçelerle zenginleştiriyor. Geleneksel robot sistemleri genellikle doğrudan girdi-eylem eşleşmeleri öğrenir ve karmaşık görevlerde neden belirli bir hareket yaptıklarını açıklayamazlar. Yeni yaklaşım ise robotlara mantıksal düşünme yetisi kazandırarak, hem performansı artırıyor hem de şeffaflık sağlıyor. Bu gelişme, özellikle uzun süreli ve karmaşık manipülasyon görevlerinde robotların daha güvenilir ve anlaşılabilir olmasının yolunu açıyor.
Yapay Zeka Karar Haritalarını Görselleştiren 'Kavramsal Çoklu Evren' Sistemi
Araştırmacılar, dil modellerinin açık uçlu sorulara verdiği yanıtlardaki gizli karar süreçlerini görünür kılan yenilikçi bir sistem geliştirdi. 'Kavramsal çoklu evren' adı verilen bu interaktif sistem, kullanıcıların yapay zekanın bir problemi nasıl çerçevelediğini, neyi değerli gördüğünü ve hangi yaklaşımları benimsediğini şeffaf bir şekilde görmesine olanak tanıyor. Sistem, kullanıcıların bu karar noktalarını incelemesine, müdahale etmesine ve alan uzmanlarının mantığıyla karşılaştırmasına imkan veriyor. Üç farklı alanda yapılan testlerde, özellikle felsefe öğrencilerinin problemleri daha iyi haritalayabildikleri gözlemlendi. Bu yaklaşım, yapay zeka sistemlerinin 'kara kutu' doğasını aşarak daha şeffaf ve kontrol edilebilir AI araçları yaratma yolunda önemli bir adım.
AI Destekli Kodlama İçin Yeni 'Agentic Consensus' Modeli Önerildi
Yapay zeka destekli yazılım geliştirme süreçlerinde yaşanan kontrol ve şeffaflık sorunlarına çözüm arayan araştırmacılar, geleneksel kod yazımından farklı bir yaklaşım öneriyor. 'Vibe coding' olarak adlandırılan hızlı AI destekli kodlama yönteminin, doğru çalışan kod üretmesine rağmen yapısal bağımlılıkları ve kanıtları kaydetmediği tespit edildi. Bu durum, kod incelemelerini zorlaştırıyor ve sistemleri değişikliklere karşı kırılgan hale getiriyor. Araştırmacılar, kodun yerini alacak 'Agentic Consensus' paradigmasını öneriyorlar. Bu yaklaşımda, tiplenmiş özellik grafiği olarak temsil edilen bir konsensüs katmanı, mühendisliğin birincil eseri haline geliyor. Sistem, her yapısal iddiayı denetlenebilir kılarak ve kanıtları doğrudan bağlayarak yazılım geliştirme süreçlerinde daha fazla şeffaflık ve kontrol sağlamayı hedefliyor.
Matematik Dünyasında İddialar: Symplectic Bipotentials Araştırmasında Orijinallik Sorunu
Matematik camiasında önemli bir tartışma yaşanıyor. Yeni yayınlanan bir araştırma makalesinin içeriğinin büyük ölçüde daha önceki çalışmalardan alındığı iddia ediliyor. Symplectic bipotentials konusundaki bu makalenin, 2018 ve 2023 yıllarında yayınlanmış önceki çalışmaları yeterince atıf yapmadan kullandığı öne sürülüyor. Bu durum, bilimsel yayıncılıkta orijinallik ve atıf etiği konularını gündeme getiriyor. Matematik ve mekanik alanındaki bu gelişme, araştırma dünyasında şeffaflık ve akademik dürüstlük tartışmalarını yeniden alevlendiriyor.
Elektronik oylamada gizlilik ve şeffaflığı bir arada sunan yeni protokol
Araştırmacılar, elektronik seçim sistemlerinde uzun süredir devam eden bir soruna çözüm getiren yenilikçi bir protokol geliştirdi. ACE adı verilen bu sistem, seçim sonuçlarının herkes tarafından doğrulanabilmesini sağlarken, aynı zamanda seçmenlerin gizliliğini de koruma altına alıyor. Geleneksel elektronik oylama sistemleri genellikle şeffaflık ve gizlilik arasında seçim yapmak zorunda kalırken, yeni protokol her iki özelliği de başarıyla harmanlıyor. Sistem, oy dağılımını gizli tutarak kamu denetimi imkanı sunan bir toplama mekanizması kullanıyor ve güvenilmeyen istemci varsayımları altında bile doğru oy kullanımını garanti eden bir denetim sistemi içeriyor. Bu gelişme, demokratik süreçlerde elektronik sistemlerin daha güvenli kullanımına önemli bir katkı sağlayabilir.
Android Uygulamaları Gizlilik Politikalarında Belirtmedikleri Verileri Topluyor
Bilim insanları 1000 Android uygulamasını inceleyerek, gizlilik politikaları ile gerçek veri toplama uygulamaları arasındaki çelişkileri ortaya çıkardı. Araştırma, uygulamaların %88'inin gizlilik politikası sunmasına rağmen, yalnızca %28.5'inin kayıt tutma uygulamalarından bahsettiğini gösteriyor. Daha da endişe verici olan, uygulamaların %67.6'sının gizlilik politikalarında belirtmedikleri hassas bilgileri kayıt altına aldığının tespit edilmesi. 86 milyondan fazla kayıt verisi analiz edilen bu kapsamlı çalışma, dijital gizlilik alanında önemli bir şeffaflık sorununun varlığına işaret ediyor. Bulgular, kullanıcıların gerçekte hangi verilerinin toplandığı konusunda yeterince bilgilendirilmediğini ve mevcut gizlilik politikalarının yetersiz kaldığını ortaya koyuyor.
Yeni Güvenli Kriptografi Eğrisi: 260-Bit Güvenlik Seviyesinde ECCFROG522PP
Araştırmacılar, mevcut kriptografik sistemlerin güvenlik açıklarına karşı yeni bir eliptik eğri geliştirdi. ECCFROG522PP adlı bu 522-bitlik eğri, NIST P-521 ile aynı güvenlik seviyesini sunarken tamamen farklı bir tasarım felsefesi benimsiyor. Tüm eğri parametreleri BLAKE3 algoritması kullanılarak deterministik olarak türetiliyor ve hiçbir gizli seçim içermiyor. Bu yaklaşım, kriptografide şeffaflık ve yeniden üretilebilirlik konularındaki artan talebe yanıt veriyor. Özellikle dijital imza sistemleri ve anahtar değişimi protokollerinde kullanılan mevcut 256-bit güvenlik seviyesinin üzerine çıkarak, yaklaşık 260-bit güvenlik sunuyor. Eğri, asal düzene sahip, güvenli gömme derecesi ve anti-MOV kontrollerini geçen özelliklerle donatılmış durumda.
Yapay Zeka Hakemlerinin Değerlendirmelerini Parçalara Ayıran Yeni Sistem
Araştırmacılar, büyük dil modellerinin yapay zeka çıktılarını değerlendirirken kullandığı 'YZ-Hakem' yaklaşımının sorunlarına çözüm geliştirdi. Stanford Üniversitesi'nden bilim insanları, geleneksel yöntemlerin verdiği genel puanların hangi unsurlara dayandığını anlamayı zorlaştırdığını tespit etti. Geliştirdikleri 'işlevsel parçalanma' yöntemi, her çıktıyı kilit parçalara ayırıp bu parçaların değerlendirme kriterlerine göre hangi retorik işlevleri yerine getirdiğini analiz ediyor. Evalet adlı interaktif sistem, parça düzeyindeki işlevleri görselleştirerek kullanıcıların değerlendirmeleri incelemesini, puanlamasını ve karşılaştırmasını kolaylaştırıyor. On katılımcılı kullanıcı çalışması, sistemin değerlendirme uyumsuzluklarını tespit etmede %48 daha başarılı olduğunu gösterdi. Bu gelişme, yapay zeka değerlendirmelerinin şeffaflığını artırarak daha güvenilir YZ sistemlerine giden yolu açabilir.
Yapay Zeka Açıklamalarında Gizli Önyargılar Keşfedildi
Stanford araştırmacıları, yapay zeka modellerinin kararlarını açıklayan yöntemlerin beklenmedik önyargılar taşıdığını ortaya çıkardı. Integrated Gradient gibi özellik atfı yöntemlerinin, aynı girdi için farklı sonuçlar üretmesinin ardında yatan nedenler sistematik olarak incelendi. Araştırma, bu açıklama yöntemlerinin hem kelime seçiminde hem de pozisyon tercihlerinde belirli önyargılara sahip olduğunu gösterdi. Bu bulgular, yapay zeka sistemlerinin şeffaflığı ve güvenilirliği açısından kritik öneme sahip. Çalışma, kullanıcıların bu açıklamalara ne ölçüde güvenmeleri gerektiği konusunda önemli sorular gündeme getiriyor.
İşe Alımlarda Yapay Zeka Ayrımcılığını Gizli Verilerle Denetleme Yöntemi
AB Yapay Zeka Yasası gibi yeni düzenlemeler, işe alım süreçlerinde kullanılan yüksek riskli yapay zeka sistemlerinin adalet ve şeffaflık açısından piyasa sonrası denetimine zorunlu hale getiriyor. Ancak etkili adalet denetimi genellikle hassas kişisel verilere erişim gerektiriyor ve bu da veri koruma yasalarıyla çelişki yaratıyor. Araştırmacılar, çok taraflı hesaplama protokolleri kullanarak bu soruna yenilikçi bir çözüm geliştirdi. Bu teknoloji, hassas demografik bilgileri açığa çıkarmadan adalet metriklerinin güvenli hesaplanmasına olanak tanıyor. Çalışma, teknik, hukuki ve endüstriyel uzmanlığı birleştiren ortak tasarım yaklaşımı kullanarak gerçek dünya uygulamaları için pratik tasarım gereksinimlerini belirledi.