“yanlış bilgi” için sonuçlar
50 sonuç bulundu. Sonuçları kategoriye göre daraltabilirsin.
Havacılık güvenliğinde yapay zeka: Bilgi grafları ile güvenilir karar destek sistemi
Araştırmacılar, havacılık güvenliğinde kritik kararların alınmasında yapay zeka kullanımını güvenli hale getiren yeni bir sistem geliştirdi. Büyük dil modellerinin havacılık alanındaki yanlış bilgi üretme ve doğrulanamayan sonuçlar verme problemlerini çözen bu yaklaşım, bilgi grafları ile desteklenen hibrit bir mimari kullanıyor. Sistem, önce çok kaynaklı verilerden otomatik olarak Havacılık Güvenliği Bilgi Grafiklerini oluşturuyor, ardından bu yapılandırılmış bilgiyi kullanarak AI modellerinin çıktılarını doğruluyor ve açıklanabilir hale getiriyor. Bu gelişme, can güvenliğinin kritik olduğu havacılık sektöründe AI teknolojilerinin daha güvenli şekilde kullanılmasının önünü açıyor.
Büyük Dil Modelleri İkilem Yaşıyor: Daha Akıllı Ama Aynı Zamanda Daha Kolay Kandırılır
Yeni bir araştırma, yapay zeka dil modellerinin boyutu büyüdükçe paradoksal bir davranış sergilediğini ortaya koyuyor. Cornell Üniversitesi araştırmacıları, büyük modellerin yanlış bilgilere karşı daha dirençli hale gelirken, aynı zamanda rastgele ve anlamsız metinleri taklit etme eğiliminin arttığını keşfetti. Cerebras-GPT ve Pythia model ailelerini analiz eden çalışma, bu durumun öngörülebilir matematiksel yasalara uyduğunu gösteriyor. En büyük modeller, yanlış bilgilere karşı en küçük modellerden dört kat daha dirençliyken, anlamsız içerikleri kopyalama konusunda iki kat daha eğilimli. Bu bulgu, AI sistemlerinin geliştirilmesinde önemli bir ikilem olduğuna işaret ediyor.