Animated LogoGöksu Safi Işık Attorney Partnership Logo First
Göksu Safi Işık Attorney Partnership Logo 2Göksu Safi Işık Attorney Partnership Logo

Insights
GSI Articletter
GSI Brief

Avrupa Birliği’nde Yapay Zeka Düzenlemeleri: Yapay Zeka Yasasına Daha Yakından Bir Bakış

2025 - Winter Issue

Download As PDF
Share
Print
Copy Link

Avrupa Birliği’nde Yapay Zeka Düzenlemeleri: Yapay Zeka Yasasına Daha Yakından Bir Bakış

AI Consultancy
2025
GSI Teampublication
00:00
-00:00

ÖZET

Bu makale, Avrupa Birliği’nin Yapay Zeka Yasasını, risk yönetimi ve yapay zeka sistemlerinin sınıflandırılmasına yaklaşımına odaklanarak incelemektedir. Çalışma, önümüzdeki yıllarda sorumlu ve faydalı yapay zeka gelişimini sağlamak için devam eden diyaloğun, adaptasyonun ve küresel işbirliğinin önemini vurgulayarak sona ermektedir.

I. GİRİŞ

Avrupa Birliği (AB), yapay zekanın kendi sınırları içinde kullanımını düzenlemek için proaktif bir duruş sergilemiştir. Bu girişim, bu sistemlerin kullanımında etik hususlar, güvenlik ve hesap verebilirlik de dahil olmak üzere yapay zeka (YZ) dağıtımıyla ilgili çok çeşitli endişeleri ele almayı amaçlayan önerilen Yapay Zeka Yasası (YZ Yasası) ile sonuçlanmaktadır1. YZ Yasası, AB’nin insan merkezli YZ gelişimine olan bağlılığını ve hızla gelişen bu teknolojik ortamda küresel bir standart belirleme hedefini yansıtarak, inovasyonu gerekli önlemlerle dengeleyen kapsamlı bir düzenleyici çerçeve oluşturmayı amaçladığı için önemli bir adımdır. 

YZ Yasası, etik ve güvenlik kaygılarından ödün vermeden yeniliği teşvik eden dengeli bir yaklaşımı teşvik ederek, düzenleyici önlemleri farklı teknolojiler ve uygulamalar tarafından sunulan belirli zorluklara uyarlamak için çok önemli olan risk sınıflandırma kriterlerini özetleyen çeşitli YZ sistemleri kategorileri için net tanımlar getirmektedir2. YZ teknolojilerini düzenlemeye yönelik küresel çabada bir dönüm noktasını temsil etmektedir. Yasanın geniş kapsamı, AB içinde YZ sistemlerinin geliştirilmesi ve konuşlandırılması için uyumlu bir çerçeve oluşturmayı amaçlayarak çok sayıda sektöre yayılmaktadır3. Yasanın en önemli özelliği, inovasyonu teşvik etmek ve potansiyel riskleri azaltmak arasında bir denge kurulması ihtiyacını kabul etmesidir. Yasanın etik kurallar oluşturmaya odaklandığı, hesap verebilirlik ve insan gözetimi ilkeleri aracılığıyla YZ sistemlerinde güvenilirliği teşvik etmektedir4. Ayrıca, Yasa, YZ’nin farklı alanlardaki çeşitli etkilerinin, örneğin medya ve gazetecilik üzerindeki etkisinin, araştırılmasını kabul etmektedir5. YZ Yasası, açık kurallar ve gereklilikler belirleyerek, YZ teknolojilerinin sorumlu bir şekilde geliştirilmesini ve kullanılmasını sağlamayı, temel hakları korurken topluma fayda sağlamayı amaçlamaktadır.

II. YZ YASASININ KAPSAMI VE TANIMLARI

2024/1689 sayılı Tüzüğün 1. Maddesi, YZ Yasası’nın kapsamını ana hatlarıyla belirtmekte ve yeniliğin teşvik edilmesi ile korumanın sağlanması arasındaki dengeyi vurgulamaktadır. Spesifik olarak, Madde 1, tüzüğün AB içinde yapay zeka sistemlerinin geliştirilmesi, piyasaya sürülmesi ve kullanımı için tek tip bir yasal çerçeve oluşturma hedefini vurgulamakta ve Avrupa değerlerini korurken iç pazarı kolaylaştırmayı amaçlamaktadır. İnsan merkezli bir yaklaşıma olan bu bağlılık, temel haklar, sağlık, güvenlik ve çevre için yüksek düzeyde koruma sağlayan güvenilir YZ’nin teşvik edilmesinin önemini vurgulayan Madde 1’de daha da vurgulanmaktadır. YZ’nin ilerlemesini vatandaşların haklarının ve refahının korunması ile açıkça ilişkilendiren tüzük, Madde 1’de ifade edildiği gibi, Avrupa Birliği içinde YZ geliştirme ve uygulamasına yönelik sorumlu ve etik bir yaklaşım için zemin hazırlamaktadır. Tek tip bir yasal çerçeveye yapılan vurgu, yalnızca proaktif bir düzenleyici duruşa işaret etmekle kalmamakta, aynı zamanda Avrupa endüstrilerinin, özellikle düzenleyici yaklaşımların genellikle daha az katı ve daha yenilik odaklı olduğu Amerika Birleşik Devletleri ve Çin’deki muadillerine karşı karşılaştığı rekabet ortamını da ele almaktadır6. YZ Yasası’nın YZ sistemlerini risk seviyelerine göre kategorize etmeye yönelik hükümleri, rekabetçi bir küresel ortamda yeniliği teşvik etmek için çok önemli olan yeterli gözetimi sağlamaya devam ederken düzenleyici aşırı yüklenmeyi önlemek için tasarlanmıştır7

YZ Yasası, yapay zeka sistemlerinin kapsamını, makine öğreniminden mantık tabanlı ve istatistiksel yöntemlere kadar çok çeşitli teknoloji ve teknikleri kapsayacak şekilde kapsamlı bir şekilde tanımlamaktadır8. Bu kapsayıcı tanım, açıkça yapay zeka olarak etiketlensin ya da etiketlenmesin, çeşitli yapay zeka uygulamalarının düzenleyici şemsiye altına girmesini sağladığından ve böylece AB içinde yapay zeka teknolojilerinin dağıtımında gözetim ve hesap verebilirliği artırdığından kritik öneme sahiptir9. Ayrıca yasa, teknolojik yeniliği teşvik ederken hem geliştiriciler hem de kullanıcılar üzerinde aşırı düzenleyici yüklerden kaçınırken yapay zekanın ortaya çıkardığı çeşitli zorlukları ele almayı amaçlayan “risk temelli bir düzenleyici yaklaşıma” bağlı kalmaktadır. Bu yaklaşım, yüksek riskli YZ uygulamalarıyla ilişkili potansiyel riskleri azaltmak ve yeni teknolojilerin büyümesi için elverişli bir ortamı teşvik etmek arasında bir denge kurmayı ve nihayetinde AB’yi küresel sahnede etik YZ yönetişminde lider olarak konumlandırmayı amaçlamaktadır10

YZ Yasası’nın kilit yönlerinden biri, geliştirme ve uygulama aşamaları boyunca paydaşların dahil edilmesine vurgu yaparak, çok çeşitli seslerin YZ uygulamalarının şekillendirilmesine katkıda bulunmasını sağlamaktır. Bu işbirlikçi yaklaşım, yalnızca YZ sistemlerinde şeffaflığı ve güveni artırmakla kalmaz, aynı zamanda insan hakları ilkelerinin YZ gelişimine sorunsuz entegrasyonunu tarihsel olarak engelleyen yasal dil ve mühendislik uygulamalarındaki mevcut boşlukları da ele alır11. Ayrıca, önerilen düzenlemeler, tüm paydaşların YZ gelişimini etkilemesine, performansını izlemesine ve mevcut yasal çerçevelerin genellikle göz ardı ettiği hesap verebilirlik ve gözetimdeki mevcut boşlukları kapatmak için gerekli olan zarar durumlarında tazminat talep etmesine olanak tanıyan mekanizmalar oluşturmayı amaçlamaktadır. Bu işbirlikçi yaklaşım, AB’nin dijital çağda temel hakları korumaya yönelik daha geniş taahhüdüyle uyumludur ve Avrupa Birliği Parlamentosu’nun yasama sürecinde tespit edilen boşlukları ele almasını zorunlu kılmaktadır. 

Dahası, YZ Yasası hem geliştiricilerin hem de kullanıcıların YZ ile ilişkili riskleri algılama biçimlerini nihai olarak değiştiren, bu tür teknolojilerin yalnızca yenilikçi değil, aynı zamanda güvenilir ve etik olarak toplumsal değerlerle uyumlu olmasını sağlayan dönüştürücü bir mevzuat olarak hizmet etmeyi amaçlamaktadır. YZ Yasası, etik ve güvenlik kaygılarından ödün vermeden yeniliği teşvik eden dengeli bir yaklaşım oluşturmayı amaçladığından, bu durum YZ yönetişimi için küresel bir model olarak hizmet edebilecek kapsamlı ve tutarlı bir düzenleyici çerçeveye olan ihtiyacı güçlendirmektedir. Bu bağlamda, YZ Yasası’nın risk yönetimine odaklanması, YZ ekosisteminde hesap verebilirlik ve sürekli iyileştirme kültürünü teşvik ederken potansiyel zararların azaltılmasında hem geliştiricilerin hem de kullanıcıların sorumluluklarını tanımladığı ve böylece AB’yi küresel YZ yönetişim ortamında bir öncü olarak konumlandırdığı için özellikle hayati önem taşımaktadır. Yasa sadece risk yönetimini vurgulamakla kalmıyor, aynı zamanda yüksek riskli YZ sistemleri için özel gereklilikler getiriyor, konuşlandırılmadan önce titiz değerlendirmeler yapılmasını zorunlu kılıyor ve bu da YZ düzenlemesinde inovasyonu güvenlik önlemleriyle dengelemek isteyen diğer yargı bölgeleri için bir model oluşturabilir12. Ayrıca, sağlam risk yönetimine yapılan bu vurgu, YZ teknolojilerinin mevcut toplumsal sorunları daha da kötüleştirmemesini veya yeni ayrımcılık biçimleri getirmemesini sağlamak için gereklidir, böylece YZ’nin ortaya çıkardığı çeşitli riskleri etkili bir şekilde ele almak için düzenleyici önlemlerde orantılılık ve ayrıntı gerekliliğini güçlendirmektedir.

III. TÜZÜKTE RİSK YÖNETİMİ

YZ Yasasının özünde, YZ sistemlerinin geniş kapsamlı etkileri göz önüne alındığında özellikle çok önemli olan risk yönetimi kavramı yatmaktadır. Yasa, YZ uygulamalarıyla ilişkili riskleri değerlendirmek ve azaltmak için yapılandırılmış bir çerçeve oluşturmakta ve yüksek riskli YZ sistemlerinin geliştiricilerini, belirlenen güvenlik ve etik kurallara uyumu sağlamak için sürekli izleme ve değerlendirmeyi içeren sağlam risk yönetimi süreçlerini uygulamaya zorlamaktadır13. Bu gereklilik, yalnızca geliştiricilerin hesap verebilirliğini artırmak için değil, aynı zamanda kullanıcıları YZ dağıtımından kaynaklanabilecek potansiyel zararlardan korumak için tasarlanmıştır ve bu teknolojilerin düzenlenmesinde reaktif gözetimden ziyade proaktif gözetime doğru bir geçişi yansıtmaktadır. Ayrıca, bu risk yönetimi çerçevesi, yasal beklentiler ile YZ alanındaki geliştiricilerin karşılaştığı teknik gerçekler arasındaki boşluğu doldurmak için hayati önem taşıyan açık uyum süreçlerinin gerekliliğinin altını çizmekte ve böylece AB genelinde daha etkili ve uyumlu bir düzenleyici ortamı teşvik etmektedir. 

YZ Yasası’nın risk yönetimine yaptığı vurgu, YZ alanındaki teknolojik ilerlemenin hızlı hızı ve YZ yaşam döngüsü ve veri yönetişim süreçlerinde yer alan ve genellikle birden fazla kuruluşun dahil olduğu doğal karmaşıklıklar göz önüne alındığında özellikle önemlidir. Bu karmaşıklık, her bir YZ sisteminin oluşturduğu potansiyel risklerin kapsamlı bir şekilde anlaşılmasını gerektirirken, aynı zamanda yürürlükteki uyum mekanizmalarının YZ teknolojisinin dinamik doğasını ve geliştirme ve dağıtımında yer alan çeşitli paydaş ekosistemini barındırabilmesini sağlar14. Bu, yalnızca YZ gelişiminin her aşamasında risk değerlendirmeleriyle ilgili doğru dokümantasyon ve şeffaflığı değil, aynı zamanda YZ teknolojisinin çeşitli uygulamalarında uyum ve hesap verebilirliği kolaylaştıran standartların mevcudiyetini de gerektirmekte ve sektör hızla geliştikçe düzenleyici uygulamalarda tutarlılığa duyulan acil ihtiyacı ele almaktadır. Bu çok yönlü zorlukları ele alırken, YZ Yasası, YZ sistemleriyle ilişkili risklerin tanımlanmasını, belgelenmesini ve sürekli değerlendirilmesini kapsayan titiz bir çerçeveyi savunmakta ve YZ ekosisteminde bir hesap verebilirlik ve güven kültürünü teşvik etmek için paydaşlar arasında iş birliğine dayalı çabaların önemini vurgulamaktadır15. Ayrıca, bu çerçeve, farklı YZ uygulamalarının benzersiz özelliklerine duyarlı, yüksek riskli sistemlerin daha katı gerekliliklere tabi olmasını sağlarken, daha düşük riskli senaryolarda esnekliğe izin veren ve böylece yenilik ve koruma arasında bir denge kuran risk temelli bir yaklaşıma duyulan ihtiyacı kabul etmektedir. Bu incelikli yaklaşım, yalnızca bireyleri ve toplumu potansiyel zararlardan korumayı amaçlamakla kalmaz, aynı zamanda risklerin yönetilebilir olduğu alanlarda yeniliğe olanak sağlamanın değerini de kabul eder, böylece daha geniş toplumsal çıkarlar ve insan hakları ilkeleri ile uyumlu YZ geliştirme ve dağıtımı için daha kapsayıcı ve dinamik bir ortamı teşvik etmektedir. Bu hususlar ışığında, YZ Yasasının geniş uygulamalara sıkı sıkıya bağlı kalmak yerine bağlama özgü değerlendirmeleri içerecek şekilde gelişmesi çok önemlidir, çünkü çeşitli ve öngörülemeyen yetenekler sergileyen genel amaçlı YZ sistemleri değerlendirilirken risk büyüklüğü genellikle yanlış tahmin edilebilir; bu nedenle, daha ayrıntılı ve orantılı bir yaklaşım, YZ’nin doğasında var olan riskleri azaltırken tam potansiyelini gerçekleştirmede gerekli olacaktır16

YZ ile ilgili kabul edilemez risklere bazı örnekler arasında, bireyleri kimliklerine göre hedef alabilecek ve insan yaşamı için önemli bir tehdit oluşturabilecek yüz tanıma yetenekleriyle donatılmış insansız hava araçları veya robotlar gibi otonom silah sistemlerine kolaylık sağlayabilecek kullanımlar yer almaktadır. Bir diğer örnek, bir vatandaşın internet üzerindeki davranışına dayalı olarak eğitim, sağlık hizmetleri veya istihdama erişimi belirleyen devlet tarafından kullanılan sosyal puanlama sistemleri olabilir veya seçimleri etkilemek veya hükümetleri istikrarsızlaştırmak için sahte haberler veya propaganda oluşturmak gibi siyasi manipülasyon için kullanılan deepfake’lerin kullanımıdır. Bu örnekler, yapay zeka sistemlerinin temel insan haklarını ve toplumsal değerleri koruyacak şekilde geliştirilmesini ve kullanılmasını sağlamak için sıkı düzenlemelere ve etik kurallara duyulan acil ihtiyacı göstermekte ve bu teknolojilerin kötüye kullanım ve istismar potansiyelini vurgulamaktadır. Bağlama özgü risk değerlendirmelerine ve orantılı önlemlere öncelik veren düzenleyici bir çerçeve, bu endişeleri gidermek için gereklidir17. Yüksek riskli yapay zeka, yazılım hataları veya çevresel faktörler nedeniyle arızalanan, kazalara ve yaralanmalara yol açan sürücüsüz arabaları da içerir. Yanlış teşhis veya uygunsuz tedavi ile sonuçlanan hatalı teşhisler sağlayan yapay zeka destekli tıbbi teşhis sistemleri ciddi sağlık sonuçları na yol açabilir. Demografik bilgilerine veya internet üzerindeki faaliyetlerine dayanarak belirli iş başvurusu gruplarına karşı ayrımcılık yapan algoritmik işe alma sistemleri, sosyal eşitsizlikleri sürdürebilir. Yasa koyucular, bu yüksek riskli uygulamalarla ilgili artan endişelere, bu tür sistemlerin hem güvenilir hem de adil olmasını sağlamayı amaçlayan risk profillerinin ve azaltma stratejilerinin kapsamlı bir şekilde anlaşılmasını savunarak reaksiyon göstermiştir. Bu, günlük hayatımızda giderek daha yaygın hale gelen YZ teknolojilerinin kamu güvenini ve kabulünü teşvik etmek için çok önemlidir18. Sınırlı risklere sahip YZ uygulamalarına örnek olarak, basit sorgular için temel müşteri hizmetleri sağlayan, ancak karmaşık veya duygusal olarak nüanslı talepleri ele alma yeteneğinden yoksun sohbet robotları verilebilir19. Benzer şekilde, geçmiş satın alımlara dayalı olarak ürün veya hizmet öneren tavsiye sistemleri, bireysel tercihleri veya bağlamsal faktörleri hesaba katmada başarısız olabileceğinden, insan tavsiyelerinden daha az etkili olabilir. Ayrıca, meşru e-postaları yanlışlıkla spam olarak işaretleyerek kaçırılan fırsatlara veya küçük rahatsızlıklara yol açan spam filtreleri de küçük bir riski temsil eder. Yüksek riskli ve sınırlı riskli YZ uygulamaları arasındaki bu ayrım, her bir kategorinin ortaya çıkardığı benzersiz zorlukları etkili bir şekilde ele alabilen ve düzenleyici çabaların teknolojinin bireyler ve toplum üzerindeki potansiyel etkisiyle orantılı olmasını sağlayan özel düzenleyici önlemlere duyulan ihtiyacın altını çizmektedir20

Özetle, YZ Yasası’nda risk yönetimi, YZ teknolojilerinin çeşitli alanlara entegrasyonunun ortaya çıkardığı çok yönlü zorlukları ele almaya odaklanmaktadır. Bu nedenle, yüksek riskli YZ sistemlerinin geliştirilmesi ve konuşlandırılmasında yer alan kuruluşların, yalnızca düzenleyici standartlara uyumu değil, aynı zamanda potansiyel olumsuz etkileri azaltmak için proaktif önlemleri de kapsayan kapsamlı risk yönetimi çerçeveleri uygulamalarını zorunlu kılmakta, böylece etik hususların bu sistemlerin tasarımına ve uygulanmasına içkin olduğu bir ortamı teşvik etmektedir. Proaktif risk yönetimine yapılan bu vurgu, YZ’nin çift kullanımlı bir teknoloji olarak giderek daha fazla tanınmasıyla uyumludur; burada potansiyel faydalar, toplum ve bireysel haklar için oluşturduğu risklere karşı dikkatlice tartılmalıdır, bu nedenle YZ inovasyonunun gelişen ortamına uyum sağlayabilecek sağlam yönetişim mekanizmaları gereklidir21.

IV. SONUÇ

Avrupa Birliği’nin YZ Yasası, YZ teknolojilerini yeniliği teşvik edecek, temel hakları koruyacak ve kamu güvenini artıracak şekilde düzenlemeye yönelik küresel çabada önemli bir adımı temsil etmektedir. Bu düzenleyici çerçeve, yalnızca YZ sistemlerinin nasıl sorumlu bir şekilde tasarlanması ve kullanılması gerektiğine dair bir emsal oluşturmakla kalmıyor, aynı zamanda YZ’deki ilerlemelerin etik ilkeler ve insan hakları pahasına olmamasını sağlama taahhüdünü yansıtıyor ve AB’nin kendisini YZ yönetişimi alanında bir lider olarak konumlandırma niyetini gösteriyor. Bu hedef doğrultusunda AB, inovasyonu teşvik etmek ve YZ’nin potansiyel zararlarına karşı sağlam korumalar sağlamak arasındaki gerilimi dikkatli bir şekilde yönlendirmelidir; bu da teknoloji geliştikçe ve toplumsal etkileri giderek daha karmaşık hale geldikçe sürekli diyalog ve adaptasyon gerektirmektedir. 

Bu dengeyi sağlamak için AB; düzenleyici yaklaşımında reaksiyoner kalmalı, YZ teknolojilerinin hızla gelişen ortamına uyum sağlamalı ve inovasyonu engellemeden riskleri azaltabilecek kapsayıcı ve etkili düzenleyici uygulamaları teşvik etmek için küresel ortaklarla etkileşim kurmalı ve sonuçta YZ’nin dönüştürücü potansiyelinin tüm topluma fayda sağlayacak şekilde kullanılmasını sağlamalıdır. Bu bağlamda, AB’nin düzenleyici stratejisi, diğer ülkelerin de taklit edebileceği YZ yönetişimi için yüksek bir standart belirlemeye çalıştığı ve böylece YZ düzenlemesinde küresel normları ve uygulamaları etkileyerek dünya çapında daha birbirine bağlı ve sorumlu bir YZ ekosistemine yol açabileceği için sadece güncel değil, aynı ölçüde gereklidir. Böyle bir yaklaşım, nihayetinde diğer yargı bölgelerine güvenlik ve etik hususlara öncelik veren benzer çerçeveleri benimsemeleri için ilham verebilir, böylece YZ yönetişimi konusunda küresel iş birliğini geliştirebilir ve YZ’nin potansiyel faydalarının temel haklardan veya etik değerlerden ödün vermeden gerçekleştirilmesini sağlayabilir22. Dahası, YZ yönetişimi için uluslararası ortam gelişmeye devam ettikçe, AB’nin diğer ülkelerle anlamlı bir diyaloğa girmesi, düzenleyici hedeflerini inovasyon ve risk yönetimine yönelik farklı taahhütlerin farkındalığı ile dengelemesi ve böylece YZ düzenlemesi için gerçekten uyumlu bir küresel çerçevenin geliştirilmesini kolaylaştırabilecek bir işbirliği ortamını teşvik etmesi çok önemlidir23.

KAYNAKÇA

BARRETT AM and others, ‘Actionable Guidance for High-Consequence AI Risk Management: Towards Standards Addressing AI Catastrophic Risks’ (arXiv, 23 February 2023). 

BISCONTI P and others, ‘Maximizing Team Synergy in AI-Related Interdisciplinary Groups: An Interdisciplinary-by-Design Iterative Methodology’ (2023) 38 AI & SOCIETY 1443. 

BOGUCKI A and others, ‘The AI Act and Emerging EU Digital Acquis’ [2022] Overlaps, gaps and 

CHENG L/ VARSHNEY KR/ LIU H, ‘Socially Responsible AI Algorithms: Issues, Purposes, and Challenges’ (arXiv, 21 August 2021). 

CIHON P/ SCHUETT J/ BAUM SD, ‘Corporate Governance of Artificial Intelligence in the Public Interest’ (2021) 12 Information 275. 

DIAZ-GRANADOS J, ‘Potential Legal Categories in the Sharing Economy’s Platform Operator-User-Provider Model: A Taxonomic and Positive Approach -Part 2’ (2022) 62 Jurimetrics 241. 

GASSER U, ‘An EU Landmark for AI Governance’ (2023) 380 Science 1203. 

GOLBIN I and others, ‘Responsible AI: A Primer for the Legal Community’, 2020 IEEE International Conference on Big Data (Big Data) (2020). 

GOLPAYEGANI D/ PANDIT HJ/ LEWIS D, ‘AIRO: An Ontology for Representing AI Risks Based on the Proposed EU AI Act and ISO Risk Management Standards’ in ANASTASIA DIMOU and others (eds), Studies on the Semantic Web (IOS Press 2022). 

HANIF H and others, ‘Navigating the EU AI Act Maze Using a Decision-Tree Approach’ [2024] ACM Journal on Responsible Computing 3677174. 

HELBERGER N/ DIAKOPOULOS N, ‘The European AI Act and How It Matters for Research into AI in Media and Journalism’ (2023) 11 Digital Journalism 1751. 

LAUX J/ WACHTER S/ MITTELSTADT B, ‘Trustworthy Artificial Intelligence and the European Union AI Act: On the Conflation of Trustworthiness and Acceptability of Risk’ (2024) 18 Regulation & Governance 3. 

MULEY A and others, ‘Risk of AI in Healthcare: A Comprehensive Literature Review and Study Framework’ (2023) 21 Asian Journal of Medicine and Health 276. 

PARK S, ‘Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework’ (arXiv, 15 July 2024). 

PETKOVIC D, ‘It Is Not “Accuracy vs. Explainability” -- We Need Both for Trustworthy AI Systems’ (arXiv, 23 December 2022). 

SALGADO-CRIADO J/ FERNÁNDEZ-ALLER C, ‘A Wide Human-Rights Approach to Artificial Intelligence Regulation in Europe’ (2021) 40 IEEE Technology and Society Magazine 55. 

SCHUETT J, ‘Risk Management in the Artificial Intelligence Act’ [2023] European Journal of Risk Regulation 1. SHI Q, ‘The Empirical Analysis of the EU Artificial Intelligence Act’ (2023) 4 Frontiers in Computing and Intelligent Systems 109. 

TARTARO A/ SMITH AL/ SHAW P, ‘Assessing the Impact of Regulations and Standards on Innovation in the Field of AI’ (arXiv, 8 February 2023). 

WACHTER S, ‘Limitations and Loopholes in the EU AI Act and AI Liability Directives: What This Means for the European Union, the United States, and Beyond’ (2024) 26 Yale Journal of Law and Technology accessed 22 August 2024. 

YEE D-H/ YOU Y-Y, ‘The Impact of Awareness of New Artificial Intelligence Technologies on Policy Governance on Risk’ (2020) 11 Research in World Economy 152. 

ZHAO J/ GÓMEZ FARIÑAS B, ‘Artificial Intelligence and Sustainable Decisions’ (2023) 24 European Business Organization Law Review 1. 

ZOWGHI D/ DA RIMINI F, ‘Diversity and Inclusion in Artificial Intelligence’ (22 May 2023).

DİPNOT

1 Peter Cihon/ Jonas Schuett/ Seth D Baum, ‘Corporate Governance of Artificial Intelligence in the Public Interest’ (2021) 12 Information 275.

2 Quan Shi, ‘The Empirical Analysis of the EU Artificial Intelligence Act’ (2023) 4 Frontiers in Computing and Intelligent Systems 109; Jonas Schuett, ‘Risk Management in the Artificial Intelligence Act’ [2023] European Journal of Risk Regulation 1; Sangchul Park, ‘Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework’ (arXiv, 15 July 2024).

3 Hilmy Hanif and others, ‘Navigating the EU AI Act Maze Using a Decision-Tree Approach’ [2024] ACM Journal on Responsible Computing 3677174; Artur Bogucki and others, ‘The AI Act and Emerging EU Digital Acquis’ [2022] Overlaps, gaps and.

4 Johann Laux/ Sandra Wachter/ Brent Mittelstadt, ‘Trustworthy Artificial Intelligence and the European Union AI Act: On the Conflation of Trustworthiness and Acceptability of Risk’ (2024) 18 Regulation & Governance 3; Wachter, ‘Limitations and Loopholes in the EU AI Act and AI Liability Directives: What This Means for the European Union, the United States, and Beyond’ (2024) 26 Yale Journal of Law and Technology accessed 22 August 2024.

5 Natali Helberger/ Nicholas Diakopoulos, ‘The European AI Act and How It Matters for Research into AI in Media and Journalism’ (2023) 11 Digital Journalism 1751.

6 Shi (n 2).

7 ibid; Alessio Tartaro/ Adam Leon Smith/ Patricia Shaw, ‘Assessing the Impact of Regulations and Standards on Innovation in the Field of AI’ (arXiv, 8 February 2023).

8 Park (n 2).

9 Shi (n 2).

10 Schuett (n 2).

11 Jesús Salgado-Criado/ Celia Fernández-Aller, ‘A Wide Human-Rights Approach to Artificial Intelligence Regulation in Europe’ (2021) 40 IEEE Technology and Society Magazine 55.

12 Juan Diaz-Granados, ‘Potential Legal Categories in the Sharing Economy’s Platform Operator-User-Provider Model: A Taxonomic and Positive Approach -Part 2’ (2022) 62 Jurimetrics 241.

13 Schuett (n 2).

14 ibid.

15 Diaz-Granados (n 12); Salgado-Criado/ Fernández-Aller (n 11); Delaram Golpayegani/ Harshvardhan J Pandit/ Dave Lewis, ‘AIRO: An Ontology for Representing AI Risks Based on the Proposed EU AI Act and ISO Risk Management Standards’ in Anastasia Dimou and others (eds), Studies on the Semantic Web (IOS Press 2022).

16 Jingchen Zhao/ Beatriz Gómez Fariñas, ‘Artificial Intelligence and Sustainable Decisions’ (2023) 24 European Business Organization Law Review 1.

17 Ilana Golbin and others, ‘Responsible AI: A Primer for the Legal Community’, 2020 IEEE International Conference on Big Data (Big Data) (2020); Park (n 2); Anthony M Barrett and others, ‘Actionable Guidance for High-Consequence AI Risk Management: Towards Standards Addressing AI Catastrophic Risks’ (arXiv, 23 February 2023); Didar Zowghi/ Francesca da Rimini, ‘Diversity and Inclusion in Artificial Intelligence’ (22 May 2023).

18 Golbin and others (n 17); D Petkovic, ‘It Is Not “Accuracy vs. Explainability” -- We Need Both for Trustworthy AI Systems’ (arXiv, 23 December 2022); Barrett and others (n 17); Lu Cheng/ Kush R Varshney/ Huan Liu, ‘Socially Responsible AI Algorithms: Issues, Purposes, and Challenges’ (arXiv, 21 August 2021).

19 Schuett (n 2).

20 Apoorva Muley and others, ‘Risk of AI in Healthcare: A Comprehensive Literature Review and Study Framework’ (2023) 21 Asian Journal of Medicine and Health 276; Petkovic (n 18).I

21 Golpayegani/ Pandit/ Lewis (n 15); Golbin and others (n 17); DoHyung Yee/ Yen-Yoo You, ‘The Impact of Awareness of New Artificial Intelligence Technologies on Policy Governance on Risk’ (2020) 11 Research in World Economy 152. 

22 Urs Gasser, ‘An EU Landmark for AI Governance’ (2023) 380 Science 1203; Zhao/ Gómez Fariñas (n 16). artificial intelligence (AI

23 Piercosma Bisconti and others, ‘Maximizing Team Synergy in AI-Related Interdisciplinary Groups: An Interdisciplinary-by-Design Iterative Methodology’ (2023) 38 AI & SOCIETY 1443.

  • Özet yapım aşamasında
Keywords
Yapay Zeka, Yapay Zeka Yasası, Avrupa Birliği, Risk Yönetimi, Düzenleme, Etik, Yüksek Riskli yapay zeka, Sınırlı Riskli yapay zeka, Toplumsal Etki, Yönetişim, İnovasyon, Temel Haklar.
Capabilities
AI Consultancy
AI & Disruptive Tech Legal Consultancy
Dynamic Legal Risk Management
More Insights

Articletter / GSI Brief

GSI Brief & Legal Brief

GSI Brief 204

Gsi Brief 204

Brief
Read more
GSI Brief 205

Gsi Brief 205

Brief
Read more
GSI Brief 206

Gsi Brief 206

Brief
Read more
GSI Brief 207

Gsi Brief 207

Brief
Read more

Articletter - Winter Issue

HUKUKTA DİJİTAL DELİLLERİN ÖNEMİ

Hukukta Di̇ji̇tal Deli̇lleri̇n Önemi̇

2025
Read more
İDARE TARAFINDAN GÜNCELLİĞİNİ YİTİRMİŞ HALKA AÇIK KAYITLARIN KVKK AÇISINDAN DEĞERLENDİRİLMESİ

İdare Tarafindan Güncelli̇ği̇ni̇ Yi̇ti̇rmi̇ş Halka Açik Kayitlarin Kvkk Açisindan Değerlendi̇ri̇lmesi̇

2025
Read more
İNTERNET ORTAMINDA UNUTULMA HAKKI

İnternet Ortaminda Unutulma Hakki

2025
Read more
DİJİTAL VARLIKLARIN VE KRİPTO PARALARIN MİRASI

Di̇ji̇tal Varliklarin Ve Kri̇pto Paralarin Mi̇rasi

2025
Read more
Avrupa Birliği’nde Yapay Zeka Düzenlemeleri: Yapay Zeka Yasasına Daha Yakından Bir Bakış