Skip to content Skip to footer

Çevrimiçi Eğitim Platformları ve Yapay Zekâ: AB Yapay Zekâ Yasası Kapsamında Yüksek Riskli mi?

Dünyanın önde gelen çevrimiçi öğrenme platformları olan Coursera, edX, FutureLearn ve Udemy, eğitime erişim kavramını değiştirdi. Ancak Avrupa Birliği’nin yeni Yapay Zekâ Tüzüğü (AI Act) yürürlüğe girerken, bu platformların yapay zekâyı “yüksek riskli” sayılabilecek şekillerde kullanıp kullanmadığı giderek daha fazla mercek altına alınıyor. Özellikle AI Act’in Ek III, 3. maddesi, eğitim ve mesleki öğretimde bazı yapay zekâ kullanımlarını yüksek riskli olarak sınıflandırıyor. Bu kapsamda, yapay zekâ sistemlerinin eğitime erişimi belirlemesi veya öğrenme çıktılarının değerlendirilmesinde kullanılması örnek veriliyor. Bunun sebebi ise bu tür sistemlerin “bir bireyin eğitimsel ve mesleki yolunu belirleyebileceği” ve dolayısıyla kişinin geçim imkânlarını etkileyebileceği yönünde belirtilmiş.

Öğrenme Değerlendirmeleri ve Öğrenme Çıktılarında Yapay Zekâ Kullanımı

Buradaki temel soru şu: Bu platformlar, öğrenme çıktılarının değerlendirilmesinde veya eğitime erişimin belirlenmesinde yapay zekâ sistemleri kullanıyor mu? Çünkü bu kullanım türleri, Ek III’te açıkça yüksek riskli olarak tanımlanmakta.

Coursera, platformunda çeşitli eğitim işlevleri için yapay zekâyı entegre etmeye başladı. Özellikle 2024’te Coursera, değerlendirme ve akademik dürüstlüğü desteklemek amacıyla “GenAI destekli” bir dizi özellik tanıttı. Bunlar arasında, AI Destekli Notlandırma (öğrenci ödevlerine puan verme ve geri bildirim sağlama), öğrencilere rehberlik eden yapay zekâ tabanlı bir “Koç”, ve yapay zekâ ile denetlenen sınavlar yer alıyor.

Coursera aynı zamanda otomatik sınav gözetimi (proctoring) kullanıyor: Kritik öneme sahip sınavlarda, platform öğrenci davranışlarını web kamerası ve yazılım yoluyla izleyerek kopya veya kural ihlallerini saptamaya çalışıyor (örneğin, kilitli tarayıcı kullanımı ve şüpheli davranışları işaretleyen AI algoritmaları). Ek olarak intihal tespit araçları da uygulanıyor. Bu tüm örnekler, AI Act’in tanımlarıyla birebir örtüşüyor: “Sınavlar sırasında yasak davranışların izlenmesi” ve “öğrenme çıktılarının değerlendirilmesi” yoluyla öğrenmenin yönlendirilmesi veya belgelendirilmesi. Coursera’nın sertifikalarının ve derece programlarının, öğrencilerin kariyerlerini etkileyebileceği düşünüldüğünde, bu sistemlerdeki hatalar ya da önyargılar ciddi sonuçlar doğurabilir, bu nedenle AI Act kapsamında bu sistemlerin yüksek riskli olarak tanımlanması büyük olasılıkla söz konusudur.

Benzer şekilde, edX platformu da üniversite derslerini destekliyor ve son dönemde yapay zekâyı devreye almaya başladı. Ancak şu ana dek odak noktası notlandırmadan çok öğrenme desteği oldu. 2023’te edX, GPT-4 destekli bir AI öğrenme asistanı olan “edX Xpert”’i tanıttı. Bu sistem, öğrenci sorularını yanıtlayabiliyor ve içerikte gezinmeye yardımcı oluyor. Ayrıca, ChatGPT için bir eklenti de sunarak üretken yapay zekâyı öğrenme deneyimine entegre etmeye yönelik stratejilerini ortaya koydu.

Ancak şunu vurgulamak gerekir: Sadece öğrenmeye yardımcı olan veya rehberlik sunan yapay zekâ, AI Act’in işaret ettiği türden yüksek riskli kararlar üretmiyor, çünkü öğrencinin notunu ya da eğitime erişimini doğrudan belirlemiyor. Öte yandan, edX geçmişte bazı sınavlarda proctoring hizmetleriyle iş birliği yaptı (örneğin, uzaktan sınavlar için Proctortrack veya Pearson VUE gibi araçların entegrasyonu). Bu sistemlerin bazıları AI tabanlı kimlik doğrulama ve davranış izleme içeriyor. Eğer edX/2U, sınavda kopya çekme gibi durumları otomatik olarak tespit eden veya öğrenci ödevlerini değerlendiren AI sistemlerini devreye alırsa (sadece doğru/yanlış testlerin ötesinde), bu da AI Act’in Ek III, madde 3 kapsamına girebilir.

Bu Yapay Zekâ Kullanımları Neden Yüksek Riskli Sayılıyor?

AB Yapay Zekâ Yasası, öğrencinin gelecekteki eğitim yolculuğunu belirleyebilecek tüm yapay zekâ uygulamalarını sıkı denetime tabi tutuyor. 56 numaralı gerekçede vurgulandığı gibi, eğitime kabul kararlarında, öğrencilerin programlara atanmasında, notlandırmada veya sınav gözetiminde yapay zekâ kullanıldığında, bu sistemler “yüksek riskli” sayılmalı.

Neden? Çünkü bu araçlar bir öğrencinin eğitimsel ve mesleki kaderini belirleyebilir. Örneğin, bir yapay zekâ sistemi bir öğrencinin saygın bir üniversiteye kabul edilip edilmeyeceğine ya da bir iş için gerekli olan bir sertifikayı alıp almayacağına karar verebilir. Yapay zekânın vereceği yanlış bir karar (örneğin, önyargılı bir algoritmanın öğrenciyi reddetmesi ya da hatalı bir otomatik değerlendiricinin başarılı bir öğrenciyi başarısız sayması), bireyin gelecek fırsatlarını olumsuz etkileyebilir dolayısıyla doğrudan geçimini etkileyebilir.

Olumlu yönden bakıldığında ise, eğitimde yapay zekâ, etkinlik ve erişimi artırabilir. Aynı gerekçede belirtildiği üzere, yapay zekânın eğitimde uygulanması, yüksek kaliteli dijital eğitim ve öğretimi teşvik etmek, insanların talep gören becerileri edinmesine yardımcı olmak açısından önemlidir. Örneğin, Coursera’nın yapay zekâ ile notlandırma denemesi, daha hızlı geri bildirim ve daha tutarlı değerlendirme sağlayarak öğrenme sürecini iyileştirebildiğini gösterdi.

Ancak AB diyor ki: Bu sistemler bir öğrenciyi diploma ya da kariyer yolculuğunda etkiliyorsa, o zaman ekstra güvenli, adil ve şeffaf olmaları gerekir. Bu sistemlerin zarar potansiyeli, öğrencilerin mahremiyetine müdahaleyi (örneğin, ev ortamında yapay zekâ gözetimiyle izlenmek) ve önyargı ya da ayrımcılığı içeriyor olabilir (örneğin, anadili İngilizce olmayan öğrencilerin yazdığı makaleleri düşük puanlayan bir yapay zekâ, adaletsizliği artırabilir). Bu nedenle Yasa, bu tür sistemleri yüksek riskli kategoriye alarak sıkı güvenlik önlemleri zorunlu kılıyor.

Sonuç olarak, Coursera, edX ve benzeri platformlar, notlandırma, sertifikalandırma veya kabul süreciyle ilgili görevlerde yapay zekâ kullandıklarında, AI Act’in yüksek riskli kapsamı içinde yer alma ihtimalleri oldukça yüksektir. Bu durum, Ek III, madde 3’ün açık ifadeleriyle de desteklenmektedir.

AI Act, çevrimiçi kurs kavramını düzenlemesiz bir alan olmaktan çıkarıyor. Artık sizi eğiten ya da sınayan algoritmaların da denetime tabi olması gerekiyor. Önde gelen çevrimiçi eğitim platformları, yapay zekâyı benimsemeye devam ettikçe, etik yapay zekâ değerlerini uygulama sorumluluğuyla karşı karşıya.

Bu platformların başarısı, sadece kaç öğrenciye ulaştıklarıyla değil, ellerindeki güçlü yapay zekâ araçlarını ne kadar sorumlu ve şeffaf bir şekilde entegre ettikleriyle de ölçüleceğini ön görmekteyiz.