Avrupa Birliği’nin (AB) yapay zeka alanındaki ilk kapsamlı düzenlemesi olan Yapay Zeka Tüzüğü (AI Act, tüzük), 1 Ağustos 2024 tarihinde kabul edildi ve 2 Şubat 2025 itibariyle ilk beş maddesinin uygulanmasına başlandı. Uygulanmasına başlanan hükümler arasında konu ve amaç, kapsam, tanımlar, yapay zeka okuryazarlığı ve yasaklı yapay zeka uygulamaları yer almaktadır. Bunlardan özellikle Madde 4 (Yapay Zeka Okuryazarlığı) ve Madde 5 (Yasaklı Yapay Zeka Uygulamaları), tüzük kapsamında yükümlülerin en fazla dikkat etmesi gereken alanlar. 4 Şubat 2025 tarihinde de Avrupa Komisyonu tarafından yasaklı yapay zeka uygulamalarına ilişkin 135 sayfalık bir kılavuz yayınlandı.[1] Komisyon burada özellikle 5. madde hükmünün uygulanmasının, her bir olaya özel durumun gerektiği gibi dikkate alındığı, her bir olayın ayrı ayrı değerlendirilmesini gerektirdiğinin altını çizmekte.
Bununla birlikte, 4 Şubat 2025’te Avrupa Komisyonu, yasaklı yapay zeka uygulamalarına ilişkin 135 sayfalık bir kılavuz yayımladı.[2] Bu kılavuz, özellikle Madde 5’in nasıl uygulanacağına dair bir çerçeve sunuyor ve her olayın özel durumunun dikkate alınması gerektiğini vurguluyor. Yine 6 Şubat 2025 tarihinde de Avrupa Komisyonu tarafından yapay zeka sistemlerinin tanımlanmasına bir kılavuz yayınlandı.[3] Bu kılavuz ise, tüzüğün 3. maddesinde belirtilen “yapay zeka sistemi” tanımının nasıl yorumlanması gerektiğine ilişkin bir rehber niteliğinde.
Yapay Zeka Okuryazarlığı Tüzüğün en çok dikkat çeken yönlerinden biri, yapay zeka okuryazarlığını zorunlu hale getiren Madde 4. Bu madde, sağlayıcılar[4] (providers) ve uygulayıcıların[5] (deployers) yapay zeka sistemleriyle çalışan kişileri bilgilendirmesini şart koşuyor. Yani sadece yazılım mühendisleri veya teknik ekipler değil, yapay zeka ile etkileşime giren herkesin bilinçlendirilmesi gerekiyor. Şirketlerin yapay zeka teknolojilerini kullanan veya geliştiren çalışanlarının, sistemlerin potansiyel etkilerini ve risklerini anlamalarını sağlamalarını gerektiriyor. Çalışanların yapay zekanın nasıl çalıştığını, hangi alanlarda kullanıldığını ve bu teknolojilerin etik ve hukuki boyutlarını anlaması için uygun eğitim programlarının oluşturulması gerekli. Ancak, burada altını çizelim, tüm çalışanlara aynı düzeyde eğitim verilmesi beklenmiyor. Yapay zeka okuryazarlığı eğitimi, çalışanın görevine ve organizasyon bağlamındaki konumuna göre özelleştirilmeleri öneriliyor. Örnek vermek gerekirse özellikle mühendisler ve yazılımcılar, yapay zeka sistemlerinin teknik risklerini ve etik boyutları konusunda eğitim almalılar.
Organizasyon liderleri ise yapay zeka sistemlerinden elde edilen çıktıları nasıl yorumlamaları gerektiğini bilmeli ve bu çıktılar iş süreçlerine nasıl entegre edileceğini anlamalıdır.
Her ne kadar tüzük kapsamında şu an için tam bir uyum programı gerçekleştirilemese de, düzenlemelerden bağımsız olarak şirketler için yapay zeka okuryazarlığı çok önemli. Bu kapsamda AI Act yükümlülükleri ve AB Yapay Zeka Ofisi yönergeleri dikkate alınarak bir uyum yol haritası çizilmesinde fayda var. Yapay zeka okuryazarlığını artırmak için şirketler, şirket yapısı içindeki yapay zeka kullanım alanlarını belirleyip ve bu alanlara uygun eğitim programları geliştirebilir. Eğitimler için ise çalışanların mevcut bilgi seviyeleri ölçülmeli, yapay zeka riskleri analiz edilmeli ve uyumluluk gereklilikleri göz önünde bulundurulabilir. Bu kapsamda Yapay Zeka Ofisi tarafından yayınlanan yapay zeka okuryazarlığı örnekleri dokümanını incelemekte fayda var.[6]
Yapay Zeka Sistemleri’nin Tanımı
6 Şubat 2025 tarihinde de Avrupa Komisyonu tarafından yapay zeka sistemlerinin tanımlanmasına bir kılavuz yayınlandı.[7] Bu kılavuz, tüzüğün 3. maddesinde belirtilen “yapay zeka sistemi” tanımının nasıl yorumlanması gerektiğini açıklıyor. Genel amaçlı yapay zeka modelleri ise (örn. büyük dil modelleri) mevcut kılavuzun kapsamı dışında bırakılmış. AI Act’in 3. Maddesi kapsamında bir yapay zeka sisteminin sahip olması gereken temel unsurlar şu şekilde sıralanıyor:
- Makine Tabanlı (machine-based system): Bir yapay zeka sistemi, yazılım ve donanım bileşenleriyle çalışır. Gelişmiş yapay zeka sistemlerinin bütün yaşam döngüsü, birçok donanım veya yazılım bileşeni içerebilen makinelere dayanır.
- Otonom (designed to operate with varying levels of autonomy): Sistemin, insan müdahalesinden bağımsız olarak değişken otonomi düzeylerinde işlemesi gerekir. Burada özerklik/otonomi, yapay zeka sistemlerinin insan müdahalesinden kaynaklanan eylemlerden belirli bir bağımsızlık derecesi ile çalışmak üzere tasarlanmış olduğu anlamına geldiğini belirtmektedir. Bu nedenle yalnızca tamamen manuel olarak çalışmak üzere tasarlanmış sistemler, yapay zeka sistemleri tanımının dışında kalmaktadır.
- Uyarlanabilir (exhibit adaptiveness after deployment): Bazı sistemler, davranışının değişmesine izin veren kendi kendini öğrenme yeteneklerine sahip olabilir. Ancak bu zorunlu değildir. Burada aslında, bir sistemin başlangıçta eğitildiği verilerin ötesinde otomatik olarak öğrenme, yeni kalıplar keşfetme veya verilerdeki ilişkileri belirleme yeteneği, isteğe bağlı bir durumdur ve dolayısıyla sistemin bir yapay zeka sistemi olarak nitelendirilip nitelendirilmediğini belirlemek için belirleyici bir koşul değildir.
- Sistem hedefleri (AI system objectives) Yapay zeka sistemleri bir veya daha fazla hedefe göre çalışmak üzere tasarlanmalıdır. Sistemin hedefleri açık veya dolaylı hedefler olabilir. Açık hedefler, geliştirici tarafından doğrudan sisteme kodlanan açıkça belirtilmiş hedeflere atıfta bulunur. Örneğin, bazı maliyet fonksiyonlarının, bir olasılığın veya kümülatif bir ödülün optimizasyonu olarak belirtilebilirler. Dolaylı hedefler, açıkça belirtilmemiş ancak sistemin davranışından veya temel varsayımlarından çıkarılabilecek hedeflere atıfta bulunur. Bu hedefler eğitim verilerinden veya yapay zeka sisteminin çevresiyle etkileşiminden kaynaklanabilir.
- Çıktılar Üretme Yeteneği (infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions): Bir yapay zeka sistemi, aldığı girdilerden yola çıkarak tahminler, öneriler veya kararlar üretebilmelidir. Yapay zeka sistemleri daha basit geleneksel yazılım sistemlerinden veya programlama yaklaşımlarından ayırt edilmeli ve çıkarım yapma kabiliyeti ile diğer sistem türlerinden ayrılmalıdır. Bir yapay zeka sistemi oluşturulurken çıkarım yapmayı sağlayan teknikler arasında, belirli hedeflere nasıl ulaşılacağını algılayabilen makine öğrenimi yaklaşımları ve kodlanmış bilgiden veya bunun sembolik temsilinden çıkarım yapan mantık ve bilgi tabanlı yaklaşımlar yer alır. Komisyonun yayınladığı kılavuz, bu tekniklerin içeriklerini ve unsurlarını ve çıktı türlerini detaylıca açıklamıştır. Kılavuzda bu tanımın dışında kalan sistemler olarak matematiksel optimizasyonu iyileştirme sistemleri, temel veri işleme sistemleri, klasik buluşsal yöntemlere dayalı sistemler ve basit öngörü/tahmin sistemleri sayılmıştır.
- Fiziksel veya Sanal Ortamları Etkileme (can influence physical or virtual environments): Yapay zeka sistemleri pasif olmamalı ve konuşlandırıldıkları ortamları aktif olarak etkilemelidir. “Fiziksel veya sanal ortamlar” ifadesi, bir yapay zeka sisteminin etkisinin hem elle tutulur, fiziksel nesnelere (örneğin robot kolu) hem de dijital alanlar, veri akışları ve yazılım ekosistemleri dahil olmak üzere sanal ortamlara olabileceğini belirtmektedir.
Kılavuza göre bu unsurların tüm yapay zeka sistemlerinde sürekli olarak bulunması gerekmez. Örneğin, bazı sistemler geliştirme aşamasında öğrenme kabiliyeti gösterebilirken, uygulamaya koyma sonrası bu özelliğe sahip olmayabilir.
Yine burada önemle altını çizmek gerekir, bu kılavuz bağlayıcı bir kılavuz değil. Yapay zeka sistemlerinin tanımlanmasına ilişkin nihai yorum yetkisi Adalet Divanı’na (CJEU) aittir. Bununla birlikte bir sistemin yapay zeka olarak sınıflandırılması, yalnızca genel kurallara dayalı olarak değil, olay bazında yapılan teknik ve işlevsel değerlendirmelerle belirlenmelidir. Dolayısıyla sadece kılavuza dayalı bir uyum süreci yapıldığında, Mahkemede bu kılavuza atıfta bulunmak yeterli bir gerekçe olmayacaktır.
Bu kılavuz, özellikle yapay zeka tüzüğüne tabi olup olmadığını anlamaya çalışan şirketler ve sağlayıcılar için büyük önem taşıyor. Eğer geliştirdiğiniz veya kullandığınız sistemin AI Act kapsamına girip girmediğinden emin değilseniz, olası yaptırımlarla karşılaşmamak için detaylı bir analiz yapmanız gerekecek.
Yasaklanan Yapay Zeka Sistemleri
AI Act Madde 5 kapsamında çeşitli yapay zeka uygulamaları AB genelinde yasaklanmıştır. Bunlardan bazıları:
- Bilinçaltı manipülasyon veya aldatıcı teknikler kullanan sistemler (kullanıcıların kararlarını farkında olmadan etkileyen yapay zeka sistemleri) Bireylerin bilinçli karar alma yetisini önemli ölçüde etkileyen, bilinçaltına hitap eden veya manipülatif teknikler kullanarak kullanıcı davranışlarını yönlendiren yapay zeka sistemleri AB genelinde kullanılamayacaktır. Özellikle karar süreçlerini çarpıtarak bireylere zarar veren sistemler bu kapsamda değerlendirilmektedir. Kişiselleştirilmiş manipülasyonun bir diğer örneği ise, bir bireyin kişisel verilerine dayanarak ileri derece ikna edici mesajlar oluşturan ve uyarlayan veya diğer bireylerin zaaflarını kullanan bir yapay zeka sisteminin, o bireyin davranışlarını veya seçimlerini önemli bir zarar yaratacak noktaya kadar etkilemesidir. Bu durumda özellikle yapay zeka tabanlı kişiselleştirilmiş hizmetler sunanların bu sistemlerin (örn. Chatbot) yasaklı sistemlere girmemesi konusunda dikkat etmesi gerekir.
- Bireylerin savunmasızlıklarından faydalanan yapay zeka uygulamaları (örneğin, çocukları veya engelli bireyleri manipüle eden sistemler) Yaş, engellilik durumu veya ekonomik ve sosyal durumlar nedeniyle daha savunmasız konumda olan bireyleri hedef alarak onların kararlarını manipüle eden yapay zeka sistemleri, toplumsal eşitsizlikleri daha da derinleştirme riski taşıdığından dolayı yasaklanmıştır.
- Sosyal puanlama sistemleri (bireylerin davranışlarına göre ayrımcılığa neden olabilecek derecelendirme sistemler). Kişilerin belirli bir süre boyunca sosyal davranışları, kişilik özellikleri veya tahmini eğilimleri üzerinden derecelendirilerek dezavantajlı muameleye tabi tutulmasını sağlayan yapay zeka sistemleri yasaklı uygulamalar arasında yer almaktadır. Bunun nedeni, bu tür sistemlerin, bireylerin temel hak ve özgürlüklerine önemli ölçüde zarar verme riski bulunmasıdır.
- Suç işleme riskini değerlendiren sistemler (profil analizi ve kişisel özellikler üzerinden risk değerlendirmesi yapan yapay zeka sistemleri de belirli istisnalar dışında yasaklanmıştır.
- Belirli yüz tanıma sistemleri Hedef belirtmeksizin internet veya kamera görüntülerinden hedefsiz yüz görüntüleri toplayarak yüz tanıma veri tabanları oluşturan veya bu veri tabanlarını genişleten yapay zeka sistemlerinin piyasaya sürülmesi, bu özel amaç için hizmete sunulması veya kullanılması yasaklanmıştır.
- Gerçek zamanlı uzaktan biyometrik tanımlama sistemleri (RBI) (kolluk kuvvetleri dışında kullanımı büyük ölçüde yasaklandı)
- Duygu analizi ve biyometrik sınıflandırma sistemleri (ırk, din, siyasi görüş veya cinsel yönelim gibi faktörlere göre ayrım yapan yapay zeka sistemleri) . Eğitim veya iş yerlerinde bireylerin duygularını analiz eden yapay zeka sistemlerinin kullanımı da ancak tıbbi veya güvenlik amaçlı olmadıkça yasaklanmıştır. İş yerlerinde veya eğitim kurumlarında kullanılan bu sistemler, bireylerin psikolojik durumlarını izleyerek ayrımcılığa yol açabilir. Özellikle son zamanlarda oldukça popüler olan yapay zeka destekli işe alım mülakat analizi yapan şirketler de bu kapsama girebilir.
Madde 5’te yer alan yasaklar, belirli bir amaç için tasarlanmış yapay zeka sistemlerine olduğu kadar, genel amaçlı sistemlere de uygulanır. Yanibir yapay zeka sisteminin doğrudan yasaklı bir uygulama için geliştirilmesi şart değildir; sistemin kullanımı da yasaklı bir uygulamaya yol açıyorsa, tüzük kapsamında yasaktır. Örneğin, bir chatbot, kullanıcıları manipüle edebilir veya aldatıcı teknikler kullanarak zararlı kararlar aldırabilir. Böyle bir durumda sağlayıcının:
- Etik ve güvenli tasarım ilkelerini benimsemesi,
- Teknik ve diğer güvenlik önlemlerini entegre etmesi,
- Kullanım koşullarında yasaklı uygulamaları açıkça belirtmesi ve kullanıcıları bilgilendirmesi,
- Şeffaflık, kullanıcı kontrolü ve insan denetimi mekanizmalarını uygulaması gerekir.
Bunun yanı sıra, sağlayıcılar, sistemlerinin yasaklı uygulamalar için kullanılmasını önlemek adına proaktif önlemler almak zorundadır. Örneğin, bir duygu tanıma sistemi, işyerlerinde veya eğitim kurumlarında kullanılmamalıdır, ancak tıbbi veya güvenlik amaçları için bir istisna söz konusu olabilir. Bu durumda sağlayıcı, sistemin kullanım koşullarında yasaklı amaçlara yönelik kullanımı açıkça kısıtlamalı ve bu konuda kullanıcıları bilgilendirmelidir.
Tüzük Kapsamında Bir Yapay Zeka Sisteminin “Piyasaya Sürülmesi”, “Hizmete Konulması” ve “Kullanılması” Kavramlarının İncelenmesi
RBI sistemleri hariç tüzük kapsamına bütün bu yasaklı sistemlerin AB pazarında “piyasaya sürülmesi”, “hizmete konulması” ve “kullanılması” yasaklanmıştır. RBI sistemlerinin ise sadece kullanılması yasaklanmıştır.
Burada “piyasaya sürme” kavramı, aslında bir yapay zeka sisteminin AB pazarında ilk kez “erişilebilir hale getirilmesi” anlamına gelmekte. “Erişilebilir hale getirme” kavramı ise sistemin bir ticari faaliyet kapsamında AB pazarında dağıtım veya kullanım için, (ister karşılığında ücret alınsın ister alınmasın) sağlanması olarak tanımlanmaktadır. Bu erişebilir hale getirme faaliyeti ise gerek API aracılığıyla, gerek bulut, gerek ise doğrudan indirmeler, fiziksel kopyalar olarak veya fiziksel ürünlere gömülmüş sistemler yoluyla gerçekleşebilir. Örneğin, AB dışında geliştirilen RBI sistemleri, AB pazarına ilk kez sunulduğunda “piyasaya sürme” kapsamında değerlendirilebilecektir.
“Hizmete konulma” kavramı ise, bir yapay zeka sisteminin uygulayıcının ilk kullanımı için veya kendi kullanımı için sistemin amacı doğrultusunda tedarik edilmesi anlamına gelir. Örneğin, bir kamu kurumu kendi içinde bir dolandırıcılık tespit sistemi geliştirip kullanıma aldığında, bu hizmete alma olarak kabul edilir.
“Kullanım” kavramı ise yapay zeka sisteminin piyasaya sürüldükten veya hizmete alındıktan sonra herhangi bir noktada kullanılması veya uygulanmasını ifade eder. AI Act, kullanımın geniş bir çerçevede değerlendirilmesi gerektiğini belirtir. Bir yapay zeka sistemi daha büyük bir sistemin parçası olarak entegre edildiğinde veya farklı bir amaç için kullanıldığında dahi bu kapsama girebilir.
Yapay zeka sistemleri sağlayıcıları, yapay zeka sistemlerini piyasaya sürmeden önce kullanım koşullarını (amaçlanan kullanım ve öngörülebilir kötüye kullanımı) göz önünde bulundurmak zorunda olsa da, uygulayıcılar sistemin kullanımına ilişkin olarak tüzük kapsamındaki gerekliliklerden sorumlu olmaya devam etmektedir. Örneğin, bir işverenin çalışanlarının duygularını analiz etmek için bir yapay zeka sistemi kullanması yasaktır, hatta sağlayıcının, yapay zeka sisteminin bu şekilde kullanımını uygulayıcı ile yaptığı sözleşmede yasaklamış olması bile, burada uygulayıcının sorumluluğunu ortadan kaldırmaz.
Yapay zeka sistemleri veya yapay zeka modelleri ile ilgili olarak bunların piyasaya sürülmesinden veya hizmete sunulmasından önce herhangi bir araştırma, test veya geliştirme faaliyeti ise tüzük kapsamında değerlendirilmeyecektir. Ancak gerçek dünya koşullarında yapılan testler de bu istisna kapsamına girmemektedir. Yine benzeri şekilde, sağlayıcılar yapay zeka sistemlerini açık kaynak olarak sunduklarında bile, eğer sistem yasaklı bir uygulama içeriyorsa düzenlemeye tabi olacağı anlamına gelmektedir.
Bazı “yüksek riskli” yapay zeka sistemleri, belirli durumlarda madde 5 kapsamındaki yasaklı yapay zeka sistemlerine dönüşebilir. Bu durumda yasaklı sistemlere ve yükümlülerine uygulanan yükümlülükler uygulama alanı bulur. Örneğin, kredi skorlama veya sağlık ve yaşam sigortalarında kullanılan risk değerlendirme sistemleri, sosyal puanlama yasaklarını ihlal etmedikçe yüksek riskli sistemler olarak sınıflandırılır. Ancak, bu tür bir sistem adaletsiz veya orantısız sosyal puanlama uygulamalarına neden olursa, Madde 5 kapsamında yasaklanabilir. Bu nedenle yüksek riskli ve yasaklı sistemler arasındaki sınıra dikkat etmek önemlidir. Yine önemle belirtmek gerekir ki AI Act, sektörler arası yatay bir düzenleme olarak uygulanmaktadır. Ancaktemel hakların korunması, tüketici hakları, iş hukuku ve ürün güvenliği gibi diğer AB mevzuatlarını tamamlayıcı bir rol oynar. Örneğin, bir yapay zeka sistemi tüzük kapsamında yasaklanmamış olsa bile, GDPR (Genel Veri Koruma Tüzüğü) veya AB’nin ayrımcılığı önleyici yasaları kapsamında yasaklanmış olabilir.
Uyumluluk ve Yaptırımlar
Tüzüğün 5. Maddesindeki yasaklı yapay zeka uygulamalarının denetimi, AB üye ülkeleri tarafından belirlenen piyasa gözetim otoriteleri ve Avrupa Veri Koruma Denetçisi (EDPS) tarafından yürütülecektir. Bu otoriteler, AB’deki diğer ürün güvenliği mevzuatlarına benzer şekilde, piyasa gözetim ve ürün uyumluluğu sistemine bağlı olarak denetleme yetkisine sahiptir.
Piyasa gözetim otoriteleri, kendi inisiyatifleriyle veya şikayetler doğrultusunda yasaklı yapay zeka uygulamalarına yönelik denetimler gerçekleştirebilecekler. AB üye ülkeleri de, 2 Ağustos 2025’e kadar tüzüğün uygulanmasından sorumlu olacak ulusal piyasa gözetim otoritelerini belirleyecekler. Eğer bir AI sisteminin yasa dışı bir uygulama içerdiği ve birden fazla AB ülkesini etkilediği tespit edilirse, ilgili ülkenin piyasa gözetim otoritesi, Avrupa Komisyonu ve diğer üye devletlerin otoritelerini bilgilendirmek zorundadır.
AB Yapay Zeka Yasası, ihlalin ciddiyetine bağlı olarak farklı seviyelerde yaptırımlar içeren kademeli bir ceza sistemine sahiptir. Bu kapsamda Madde 5 kapsamındaki yasaklı yapay zeka sistemi maddelerini ihlal edenler, diğer ihlallere nazaran yüksek cezalarla karşı karşıya kalacaktır.
- Yasaklı yapay zeka uygulamalarını geliştiren veya kullanan sağlayıcılar ve uygulayıcılar, 35 milyon Euro’ya kadar veya bir önceki yılki global cirolarının %7’sine kadar (hangisi daha yüksekse) para cezasına çarptırılabilir.
- AB kamu kurumları ve devlet organları tarafından yapılan ihlallerde ise, 1,5 milyon Euro’ya kadar idari para cezası uygulanabilir.
Tüzüğün yaptırımlara ilişkin maddeleri henüz uygulamaya başlanmadığı için şu anda yasaklı uygulamalar ile ilgili maddeleri ihlal edenlere idari para cezaları uygulanmayacak. Ancak bu demek değil ki uyumsuzluğun bir sonucu olmayacak. Avrupa Komisyonu ve Yapay Zeka Ofisi, özellikle tüzüğü ihlal eden sistemleri gözlemleyeceğini belirtti. Hatta geçtiğimiz günlerde Yapay Zeka Ofisi Deepsake’i yakından takip ettiğini duyurdu.[8] Bu nedenle dikkatli olmakta ve uygulanan maddelere ilişkin uyum süreçlerine hazırlık yapmakta fayda var. Burada önemle belirtelim, Komisyon tarafından yayımlanan yasaklı sistemlere ilişkin kılavuz henüz Komisyon tarafından uygulamaya alınmadı, uygulamaya alındığı tarihten itibaren geçerli olacak.
Sonuç ve Değerlendirme
AI Act, yapay zeka teknolojilerinin etik, güvenilir ve insan haklarına saygılı bir şekilde geliştirilmesi ve kullanılması için kritik bir düzenleme olarak değerlendirilmektedir. Yasaklanan sistemler ve getirilen şeffaflık yükümlülükleri, yapay zeka uygulamalarının toplum üzerindeki olumsuz etkilerini en aza indirmeyi amaçlamaktadır. Şirketler ve kurumlar, düzenlemelere uyum sağlamak ve olası cezai yaptırımlardan kaçınmak için şimdiden gerekli adımları atması önemlidir.
Bu yazıda genel bir bilgilendirme yapmayı amaçladık. Ancak, Komisyon tarafından yayımlanan kılavuzlar oldukça detaylı ve kapsamlı olduğundan, önümüzdeki dönemde bu kılavuzları daha derinlemesine inceleyerek ayrı makaleler paylaşacağız.
[1] European Commission (4 February 2025) Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act) https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.
[2] European Commission (4 February 2025) Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act) https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act.
[3] European Commission (4 February 2025) Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act) https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application
[4] “Sağlayıcılar”, yapay zeka sistemlerini geliştiren, AB pazarına süren veya kendi adlarıyla hizmete alan kişi, şirket veya kamu kurumlarıdır. AB dışında yerleşik olan sağlayıcılar bile, sistemlerini AB pazarına sunmaları veya AB’de kullanılması halinde tüzük kapsamına sorumludurlar.
[5] “Uygulayıcılar”, yapay zeka sistemlerini kendi otoriteleri altında kullanan kişi, kurum veya şirketlerdir. Tüzük kapsamında bir yapay zeka sisteminin kullanımı AB’de gerçekleşiyorsa, sağlayıcının veya uygulayıcının AB dışında olması bu sorumluluğu ortadan kaldırmaz. Örneğin, AB dışındaki bir firma tarafından geliştirilen bir yapay zeka sisteminin AB’de bir şirket tarafından kullanılması durumunda, sistemin kullanıcıları tüzüğe uymak zorundadır. Burada altını çizmek gerekir. Tüzük, tamamen kişisel ve mesleki olmayan bir faaliyet sırasında yapay zeka sistemleri kullanan gerçek kişi uygulayıcıları kapsamı dışında tutmaktadır.
[6] European Commission (4 February 2025) Living repository to foster learning and exchange on AI literacy. https://digital-strategy.ec.europa.eu/en/library/living-repository-foster-learning-and-exchange-ai-literacy
[7] European Commission (4 February 2025) Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act) https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application
[8] China’s DeepSeek faces EU AI Office regulatory scrutiny across range of risks | MLex | Specialist news and analysis on legal risk and regulation. (29 January 2025). https://www.mlex.com/mlex/articles/2290332/china-s-deepseek-faces-eu-ai-office-regulatory-scrutiny-across-range-of-risks