"öğrenci hakları" için 72 sonuç bulundu
× Aramayı temizle
Arama Sonuçları
72 haber
Yapay Zeka Öğrenci Yanlış Anlamalarını Tespit Ediyor
Araştırmacılar, büyük dil modellerini kullanarak öğrencilerin zorlandığı konulardaki yanlış anlamaları sistematik olarak belirlemenin yeni bir yolunu geliştirdi. Beş farklı biyomedikal bilim dersinden toplanan verilerle yapılan çalışma, 3.802 tıp öğrencisinin performansını analiz etti. İki aşamalı metodoloji ile önce quiz performanslarından zorlayıcı konular belirlendi, ardından yapay zeka bu alanlardaki temel kavram yanılgılarını karakterize etti. Bu yaklaşım, online öğrenme ortamlarında eğitimcilerin öğrenci zorluklarını daha iyi anlamalarına ve müdahale stratejileri geliştirmelerine yardımcı olabilir.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
8 Milyar Parametreli Yapay Zeka Hindistan'da Hukuk Danışmanlığı Yapıyor
Hindistan'da vatandaşların hukuki haklarına erişimde yaşadığı zorluklar nedeniyle, araştırmacılar Legal Assist AI adlı yenilikçi bir sistem geliştirdi. Bu çalışma, görece küçük bir dil modelinin (8 milyar parametre) nasıl etkili hukuki danışmanlık verebileceğini gösteriyor. Sistem, Retrieval-Augmented Generation (RAG) teknolojisi ve stratejik prompt mühendisliği kullanarak, 600'den fazla güncel hukuki belgeden oluşan kapsamlı bir veri tabanıyla destekleniyor. Özellikle yeni yasalaşan Bharatiya Nyaya Sanhita ve Bharatiya Nagarik Suraksha Sanhita gibi kanunları da içeren bu sistem, büyük dil modellerinin belirli alanlarda nasıl optimize edilebileceğine dair önemli ipuçları sunuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 10 gün önce
0
Endonezya'da AI kullanımına öğrenci tepkilerini ölçen yeni analiz sistemi
Endonezya'daki üniversite öğrencilerinin yapay zekâ teknolojilerine bakış açısını analiz eden yenilikçi bir çalışma, makine öğrenmesi ve transformer modelleri kullanarak duygu analizi gerçekleştirdi. 2.295 öğrenci görüşünün incelendiği araştırmada, geleneksel makine öğrenmesi yöntemleri ile modern derin öğrenme yaklaşımları karşılaştırıldı. Çalışma sonuçları, transformer tabanlı DistilBERT modelinin %84,78 doğrulukla en iyi performansı gösterdiğini ortaya koydu. Bu tür analizler, eğitim kurumlarının AI entegrasyonu süreçlerinde öğrenci görüşlerini daha iyi anlamalarına yardımcı oluyor ve teknoloji kabul süreçlerinin optimize edilmesine katkı sağlıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
Gizlilik Politikalarını Anlaşılır Hale Getiren Yapay Zeka Sistemi Geliştirildi
Araştırmacılar, karmaşık gizlilik politikalarını sade dille özetleyen yeni bir yapay zeka sistemi geliştirdi. APPSI-139 adlı veri seti, 139 İngilizce gizlilik politikası ve 15.692 yeniden yazılmış metin içeriyor. Kullanıcıların çoğu, uzun ve anlaşılması zor olan bu belgeleri okumadan kabul ediyor. Yeni sistem, hukuki metinlerdeki teknik jargonu günlük dile çevirerek kullanıcıların haklarını daha iyi anlamalarını sağlıyor. Özellikle kişisel verilerin nasıl işlendiği konusunda net bilgiler sunuyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
DeepTutor: Kişiselleştirilmiş Yapay Zeka Öğretmeni Geliştirildi
Araştırmacılar, her öğrencinin bireysel öğrenme tarzına uyum sağlayan yeni bir yapay zeka tutoring sistemi olan DeepTutor'u geliştirdi. Geleneksel eğitim sistemlerinin aksine, bu yenilikçi platform öğrencinin geçmiş etkileşimlerini analiz ederek sürekli gelişen bir öğrenci profili oluşturuyor. Sistem, zorluk seviyesini otomatik olarak ayarlayan soru üretimi ve kaynak destekli problem çözme özelliklerini bir araya getiriyor. DeepTutor ayrıca işbirlikçi yazma ve çoklu ajan araştırma yetenekleri sunarak geleneksel öğretim yöntemlerini dönüştürme potansiyeli taşıyor. Bu gelişme, büyük dil modellerinin eğitim alanındaki en umut verici uygulamalarından biri olarak öne çıkıyor.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
Avrupa parlamentolarında yapay zeka ile siyasi gündem analizi: 28 ülke incelendi
Araştırmacılar, Avrupa'daki 28 parlamentonun siyasi gündemlerini analiz etmek için yapay zeka destekli yeni bir sistem geliştirdi. ParlaCAP adlı bu sistem, 8 milyondan fazla parlamento konuşmasını analiz ederek siyasi konuları otomatik olarak sınıflandırabiliyor. Çalışmada büyük dil modelleri ile küçük modeller arasında öğretmen-öğrenci yaklaşımı kullanılarak maliyet-etkin bir çözüm üretildi. Sistem, insan uzmanlarla karşılaştırılabilir doğruluk oranları gösterdi ve mevcut sınıflandırma araçlarından daha başarılı sonuçlar verdi. Bu gelişme, parlamenter demokrasilerde gündem belirleme süreçlerinin anlaşılmasına önemli katkı sağlayacak.
arXiv — Hesaplamalı Dilbilim (cs.CL) · 13 gün önce
0
Engelli Çalışanlar İçin Robot İş Ortamları Nasıl Tasarlanmalı?
Engelli bireylerin iş hayatına katılımını kolaylaştırmak amacıyla geliştirilen insan-robot etkileşim sistemleri genellikle kişiye özel tasarlanıyor ve bu da yaygın kullanımını engelliyor. Araştırmacılar, bu sorunu çözmek için 'persona tabanlı tasarım' yaklaşımını öneriyorlar. Bu yöntemde, iş gücünde yaygın görülen engel durumları persona olarak sınıflandırılıyor ve her iş süreci adım adım analiz ediliyor. Tasarım düşüncesi yaklaşımıyla her engel türü için uygun stratejiler geliştiriliyor. Bu yaklaşım, uzman bilgisi gerektiren karmaşık tasarım sürecini basitleştirirken, evrensel tasarım ilkelerini insan-robot iş ortamlarına entegre etmeyi hedefliyor. Çalışma, engelli bireylerin teknoloji destekli iş ortamlarında daha etkili çalışabilmelerini sağlayacak pratik çözümler sunuyor.
arXiv (Robotik) · 14 gün önce
0
Küçük Ama Güçlü: Yeni Yapay Zeka Modeli TinyR1 Büyük Rakiplerini Sollayacak
Araştırmacılar, büyük dil modellerinin boyutunu küçültürken performanslarını koruma konusunda çığır açan bir yöntem geliştirdi. Branch-Merge damıtma tekniği adı verilen bu yaklaşım, büyük bir öğretmen modelden bilgiyi seçici olarak küçük modellere aktarıyor. İlk aşamada uzman öğrenci modeller oluşturuluyor, ikinci aşamada ise bu modeller birleştirilerek çapraz alan bilgi transferi sağlanıyor. DeepSeek-R1 öğretmen modelinden yola çıkarak geliştirilen TinyR1-32B-Preview, mevcut benzer modelleri geride bırakarak yapay zeka dünyasında yeni bir standart oluşturuyor.
arXiv (Dilbilim & NLP) · 14 gün önce
0
Yapay Zeka Modelleri Başarısızlığı Nasıl Yorumluyor: Yetenek mi, Şans mı?
Bir öğrenci sınavda başarısız olduğunda, bunu çaba eksikliğine mi yoksa sınavın zorluğuna mı bağlarız? Stanford araştırmacıları, büyük dil modellerinin olayları nasıl yorumladığını ve bu yorumların demografik önyargılara nasıl yol açtığını inceledi. Çalışma, yapay zeka sistemlerinin başarı ve başarısızlığı açıklarken kullandığı mantık süreçlerinde sistematik önyargılar bulunduğunu ortaya koyuyor. Sosyal psikolojiden ödünç alınan 'atıfsal yanlılık' kavramı üzerinden yapılan bu değerlendirme, AI'ın adalet sorunlarına yeni bir perspektif getiriyor. Araştırma, mevcut önyargı tespit yöntemlerinin ötesine geçerek, modellerin düşünce süreçlerindeki derin yapısal sorunları gözler önüne seriyor.
arXiv (Dilbilim & NLP) · 14 gün önce
0
Robotlar Artık Gözleriyle Navigasyon Yapabilecek: LiDAR Sensörüne Veda
Araştırmacılar, endüstriyel robotların navigasyon için pahalı LiDAR sensörlerine olan bağımlılığını ortadan kaldıran yeni bir sistem geliştirdi. Öğretmen-öğrenci yaklaşımı kullanan bu sistem, robotlara sadece kameralardan gelen görüntülerle güvenli navigasyon yapmayı öğretiyor. Sistem, önce LiDAR verisiyle eğitilen bir 'öğretmen' robotun bilgilerini, sadece dört RGB kamera kullanan 'öğrenci' robota aktarıyor. NVIDIA Isaac Lab simülasyon ortamında eğitilen sistem, gerçek DJI RoboMaster platformunda başarıyla test edildi. Bu gelişme, robotik alanında maliyet düşürücü bir devrim yaratabilir çünkü görme tabanlı navigasyon, geleneksel LiDAR sistemlerinden çok daha uygun maliyetli.
arXiv (Robotik) · 14 gün önce
0
Yapay Zeka Güvenliği Eşit Değil: Azınlık Grupları Daha Savunmasız
Yeni bir araştırma, büyük dil modellerinin güvenlik sistemlerinde ciddi bir açık olduğunu ortaya koyuyor. Araştırmacılar, bu sistemlerin tüm toplum kesimlerini eşit şekilde koruduğu varsayımının yanıltıcı olduğunu keşfetti. 'Seçici Güvenlik Tuzağı' olarak adlandırılan bu sorun, modellerin belirli grupları güçlü şekilde korurken, azınlık topluluklarını aynı saldırılara karşı savunmasız bırakmasını ifade ediyor. 14 gelişmiş dil modelini test eden bilim insanları, güvenlik korumasının demografik bir hiyerarşi oluşturduğunu ve aynı model içinde savunma oranlarının %42'ye kadar değişebildiğini saptadı. Bu bulgular, yapay zeka güvenliği değerlendirmelerinin mevcut yaklaşımlarının gözden geçirilmesi gerektiğini gösteriyor.
arXiv (Dilbilim & NLP) · 14 gün önce
0