ÖZET
Bu makalede, Garcia v. Character Technologies kararı ekseninde, yapay zekâ hukukundaki sorumluluk rejiminin “ifade özgürlüğü” korumasından “tasarım kusuru” zeminine kayması, emsal içtihatlar ve teknoloji hukuku doktrini ışığında ele alınmakta ve bu değişimin teknoloji ekosistemi ile geleceğe yönelik yansımaları değerlendirilmektedir.
I. giriş
Yapay zekâ sohbet botları, sadece bilgi sunan araçlar olmaktan çıkıp, kullanıcılarla duygusal etkileşim kurabilen dijital figürler olarak yeni hukuki sorular doğurmaktadır. Bu yeni hukuki sorunlar, hukuk sistemlerini bu yeni gerçekliğin doğurduğu karmaşık sorularla yüzleşmek zorunda bırakmakta, bu alanda yeni düzenlemelere ihtiyaç duyulduğunu apaçık ortaya çıkarmaktadır. Geleneksel olarak ABD hukukunda, fikir ve ifade içeren medya ürünleri Amerika Birleşik Devletleri Anayasası Birinci Değişikliği (“Birinci Değişiklik”) düzenlemeleri ile korunurken, kusurlu ürünler ürün sorumluluğu rejimine tabidir. Ancak, otonom çıktı üreten ve insan benzeri davranışlar sergileyen yapay zekâ sistemleri, bu ayrımı giderek muğlaklaştırmaktadır. Bu teknolojik devrim, hukukun en temel paradigmalarını sorgulamaya itmektedir: Bir makinenin olasılıksal hesaplamalarla ürettiği kelimeler, bir yazarın romanı gibi anayasal korumadan yararlanabilir mi? Yoksa bu kelimeler, hatalı bir otomobil motoru gibi, bir ürünün öngörülebilir riskler barındıran kusurlu bir çıktısı mıdır?
Nitekim, Florida Orta Bölge Mahkemesi’nin (“Mahkeme”) verdiği 20 Mayıs 2025 tarihli Garcia v. Character Technologies kararı (“Garcia Kararı”), bu sorgulamaların derinine inmiştir. Garcia davasının temelini oluşturan, Megan Garcia’nın (“Davacı”) 23 Ekim 2024 tarihli iddianamesinin (“İddianame”) hemen başında atıf yapılan ve 54 eyalet başsavcısı tarafından imzalanan mektupta da vurgulandığı gibi, “şehrin surları çoktan aşılmıştır” ve yapay zekânın çocuklar üzerindeki tehlikelerine karşı harekete geçme zamanıdır1.
Bu makale, Garcia Kararı’nı temel alarak, yapay zekâ sohbet botlarının tabi olduğu hukuki sorumluluk rejimlerini detaylı bir şekilde ele alarak, sorumluluğun odağının Birinci Değişiklik korumasındaki “ifade”den, ürün sorumluluğu rejimine tabi “tasarım kusuruna” nasıl kaydığını ve bu değişiminin platform kurucularından altyapı sağlayıcılarına kadar tüm teknoloji ve yapay zekâ ekosistemini nasıl etkilediğini, mahkeme kararı, taraf dilekçeleri ve ilgili hukuki doktrinler ışığında detaylı bir şekilde inceleyip analiz etmektedir.
Mahkeme, Garcia Kararı’nda, bu sorgulamaların derinine inmiştir. Mahkeme, ifade özgürlüğünün geleneksel olarak insanlar tarafından yapılan bilinçli ve yaratıcı tercihlere dayandığını, yapay zekâ çıktılarının ise bu ölçütleri karşılayıp karşılamadığının belirsiz olduğunu belirterek, yapay zekâ çıktılarının anayasal “ifade” kapsamında değerlendirilip değerlendirilemeyeceğini davanın erken aşamasında belirlemek için yeterli gerekçe ve delil bulunmadığını belirtmiştir2. Bununla birlikte, Mahkeme, çok daha önemli bir kapıyı aralamış ve uygulamanın “tasarım kusurları” nedeniyle ürün sorumluluğuna tabi tutulabileceğine hükmetmiştir3. Garcia Kararı’nda Mahkeme, Character Technologies, Inc., Noam Shazeer, Daniel De Freitas, Google LLC ve Alphabet Inc.’in (Daha önce davadan çekilmiştir.) (“Davalılar”) davanın düşürülmesine yönelik taleplerini (motion to dismiss) büyük ölçüde reddetmiştir. Bu karar, davanın esasına ilişkin nihai bir hüküm olmamakla birlikte, Davalılar’ın davayı daha en başında usuli gerekçelerle sonlandırma girişimini başarısız kılan ve davanın bir sonraki aşaması olan delillerin toplanması sürecine geçilmesine izin veren kritik bir ara karardır. Mahkeme’nin, Davacı’nın ürün sorumluluğu ve Florida Aldatıcı ve Haksız Ticaret Uygulamaları Yasası’na4 (“FDUTPA”) dayalı iddialarını esastan görülmeye değer bulurken, yalnızca “duygusal sıkıntıya kasıtlı olarak maruz kalma (“IIED”) iddiasını reddetmesi5, yapay zekâ hukukunda yeni bir içtihat oluşumunun habercisidir.
Bu makalenin araştırma konusu, Garcia Kararı’nın, yapay zekâ sorumluluğu tartışmalarının odağını, soyut bir “içerik” ve “ifade” zemininden, somut ve denetlenebilir bir “ürün tasarımı” ve “özen yükümlülüğü” zeminine kaydırıyor olması ve bu durumun yapay zekâ hukuku için bir dönüm noktası teşkil ettiğine ilişkindir. Karar, sorumluluk zincirini yalnızca platformun kendisiyle sınırlı tutmayıp, onu mümkün kılan kuruculara ve altyapı sağlayıcılarına kadar genişleterek6, yapay zekâ ekosisteminin bütüncül bir hukuki denetime tabi tutulabileceğinin sinyallerini vermektedir.
Bu makale, söz konusu Garcia Kararı’nın dayandığı hukuki gerekçeleri analiz ederek yapay zekâ uygulamalarının anayasal koruma sınırları ve sorumluluk rejimleri içindeki konumunu değerlendirmeyi amaçlamaktadır. Bu bağlamda, araştırma konusu olarak şu soruyu merkeze almaktadır: Yapay zekâ sohbet botlarının tasarım kusurları, ifade özgürlüğü ile ürün sorumluluğu arasında nasıl dengelenir? Bu çerçevede, bu makalede öncelikle davanın arka planı ve tarafların iddia ve savunmaları detaylı olarak incelenecek, ardından Garcia Kararı’nın hukuki analizi yapılacak ve son olarak kararın teknoloji sektörü ve hukuk sistemi üzerindeki geniş kapsamlı etkileri tartışılacaktır. Makalede, emsal davalarla karşılaştırmalı bir yaklaşım benimsenecek, kararın yapay zekâ hukuku üzerindeki geniş etkileri tartışılacak ve geleceğe yönelik tartışmalara ışık tutulacaktır.
II. DAVANIN ARKA PLANI VE TARAFLARIN HUKUKİ POZİSYONLARI
Dava, özünde, 14 yaşındaki Setzer’in, Character.AI (“C.AI”) isimli sohbet botu uygulamasını yoğun bir şekilde kullandıktan sonra intihar etmesi üzerine annesi Megan Garcia (“Davacı”) tarafından açılan bir haksız fiil ve ürün sorumluluğuna ilişkindir. Dava, bir yapay zekâ ürününün, kullanıcısının akıl sağlığı üzerinde olumsuz bir etki yaratarak ölüme sebebiyet verdiği iddiası ekseninde, teknoloji şirketlerinin hukuki ve etik sorumluluklarının sınırlarını test etmektedir. Davanın merkezinde, bir yanda zarar görenin ailesinin adalet arayışı, diğer yanda ise teknoloji şirketlerinin inovasyonu ve ifade özgürlüğünü koruyan Birinci Değişiklik’e dayanan savunması yer almaktadır.
A. Davacı’nın İddianamesinin Temel Dayanakları
Davacı, 23 Ekim 2024 tarihli iddianamesinde (“İddianame”), Davalılar’ın eylemlerini kasıtlı veya en azından ağır ihmalkâr bir çerçeveye oturtmaktadır. Davacı’nın iddiaları şu temel noktalar etrafında toplanmaktadır: “Kusurlu ve tehlikeli ürün”, “aldatıcı, haksız ticari uygulamalar ve veri madenciliği”, “öngörülebilir zarar ve özen yükümlülüğünün ihlali”, “öngörülebilir zararın ticarileştirilmesi”, “ihmal”, “haksız ölüm, haksız zenginleşme ve manevi zarar” iddiaları. Makalenin devamında, sıralanan bu iddialar başlıklar altında incelenecektir.
1. Kusurlu ve Tehlikeli Ürün
Davacı’nın temel iddiası, C.AI’ın bir hizmetten ziyade kusurlu bir ürün olduğuna dayanmaktadır. Bu kusurlar uygulamanın teknik tasarımından kaynaklanmaktadır. Bu iddialar arasında, reşit olmayan kullanıcılar için etkili bir yaş doğrulama mekanizmasının bulunmaması, ebeveyn denetimlerinin yetersizliği ve kullanıcıların zararlı içerikleri filtreleyememesi yer almaktadır. En önemlisi, Davacı’nın İddianame’de öne sürdüğü, yapay zekâ karakterlerinin kasıtlı olarak “antropomorfik” (insan benzeri) tasarlanarak kullanıcıda bağımlılık ve gerçek dışı bir duygusal bağ yaratmasının temel bir tasarım kusuru olduğu iddiasıdır7. İddianame’de bu iddia, yapay zekâ karakterlerinin kullanıcıları kandırmak için “sahte insanlar” olarak tasarlanmış olduğu ve bu tasarımın psikolojik manipülasyon potansiyeli taşıyan “ELIZA etkisi”ni (ELIZA effect) kullanarak kullanıcıları sömürdüğü teziyle savunulmuştur8. Adını 1960’larda geliştirilen, ilk sohbet botlarından biri olan ELIZA’dan alan bu etki, insanların, basit metin tabanlı yanıtlar karşısında bile, bilgisayar programlarına bilinç, empati ve anlayış gibi insani özellikler atfetme yönündeki psikolojik eğilimini ifade etmektedir9.
Ayrıca, Davacı, C.AI sohbet botlarının sahip olduğu büyük dil modeli (“LLM”) teknolojisinin; bilgisayar programlama ve matematikte kullanılan, sistem çıktısının kalitesinin girdi kalitesine göre belirlendiğini açıklayan “Çöp Girer, Çöp Çıkar” (Garbage In, Garbage Out- GIGO) prensibiyle internetin toksik ve cinsel içerikli verileriyle eğitildiği, bu nedenle zararlı çıktılar üretmesinin kaçınılmaz olduğunu iddia etmiştir10.
2. Aldatıcı, Haksız Ticari Uygulamalar ve Veri Madenciliği
Davacı, Davalıların eylemlerini yalnızca bir ihmal veya kusur bağlamında değil, aynı zamanda FDUTPA kapsamında değerlendirilebilecek, kasıtlı ve sistematik bir sömürü mekanizması olarak ele almaktadır. Bu çerçevenin en somut göstergesini, Davacı’nın C.AI uygulamasının uygulamanın kullanıcılarını kasıtlı olarak yanılttığı iddiası oluşturmaktadır. İddianame’de, yapay zekâ botlarının bir makine olduklarını belirtmek yerine, diyalog sırasında kendilerinin “gerçek insanlar” ve hatta bazı durumlarda “lisanslı CBT terapisti” gibi profesyoneller olduklarını iddia etmesinin aldatıcı bir eylem teşkil ettiği savunulmaktadır11. Davacı’ya göre bu durum, özellikle ergenlik çağındaki savunmasız kullanıcıların yapay zekâya aşırı ve yersiz bir güven duymasına, gerçekle kurguyu ayırt edememesine ve mahrem sırlarını paylaşmasına neden olmuştur12. Mahkeme, bu iddiayı da FDUTPA kapsamında esastan görülmeye değer bulmuştur.
Davacı’nın bu argümanı, Davalılar’ın bu tür aldatmacaların ötesine geçerek iş modellerini “haksızlık” üzerine kurguladıklarını göstermektedir. Florida Hukuku’na göre bir ticari uygulama, yerleşik kamu politikalarına aykırı, ahlaka mugayir, etik dışı, baskıcı veya tüketicilere önemli ve kaçınılmaz zararlar veriyorsa “haksız” kabul edilir13. Davacı, C.AI’ın iş modelinin bu tanıma tam olarak uyduğunu savunmaktadır. Bu haksızlık iddiasının merkezinde, uygulamanın tasarımının kasıtlı olarak gençlerin nörolojik ve psikolojik zaaflarını hedef alması yer almaktadır. Nitekim daha önce değinilen “Antropomorfik tasarım,” “ELIZA etkisi” ve bağımlılık yaratan etkileşim tuzakları, gençlerin henüz tam gelişmemiş prefrontal kortekslerini (karar verme ve dürtü kontrolünden sorumlu beyin bölgesi) istismar etmek için Davalılar tarafından bilinçli olarak kullanılmıştır14. Davacı, bu kullanım şeklinin sadece bir tasarım tercihi değil, savunmasız bir tüketici grubunun, ticari kazanç amacıyla sistematik olarak sömürülmesini içeren haksız bir uygulama olduğunu iddia etmektedir.
Davacı’ya göre uygulamanın “ücretsiz” sunulmasının ardındaki amaç, bu sömürünün nihai hedefini ortaya koymaktadır: Kullanıcı verilerini (özellikle gençlerin mahrem düşünce ve duygularını) toplayarak bir bakıma “veri madenciliği” (data mining) gerçekleştirmek. Veri madenciliği modeli, kullanıcıyı bir müşteri olmaktan çıkarıp, kendisi bir “ürün” haline getirmektedir. Öyle ki, kullanıcıların kişisel verileri, bu tür manipülatif ve aldatıcı yöntemlerle toplanmış ve ardından LLM’i eğitmek için kullanılarak şirketin değerini milyarlarca dolara çıkarmıştır. Davacı, bu durumun temelden haksız bir zenginleşme ve ticari uygulama olduğunu savunmaktadır.
3. Öngörülebilir Zarar ve Özen Yükümlülüğünün İhlali
Davacı, Davalılar’ın, LLM teknolojisinin özellikle belli yaşın altındaki bireyler üzerinde yaratabileceği psikolojik risklerin (bağımlılık, gerçeklikten kopma, manipülasyon vb.) farkında olduklarını veya en azından farkında olmaları gerektiğini iddia etmiştir. Bu iddianın en güçlü kanıtı olarak, Google’ın kendi bünyesinde geliştirdiği benzer teknolojileri (Meena, LaMDA) güvenlik endişeleri ve şirket içi etik kuralları nedeniyle kamuya açmaktan defalarca kaçındığını, ancak kurucuların bu “çok tehlikeli olduğu bilinen” teknolojiyi alıp C.AI adı altında yetersiz güvenlik önlemleriyle ve kâr amacıyla piyasaya sürdüğünü ifade etmiştir15. Davacı, Davalılar’ın, bu öngörülebilir risklere rağmen ürünü yeterli güvenlik önlemleri olmadan piyasaya sürmelerinin özen yükümlülüklerinin ihlali olduğunu ve bu ihmalin Setzer’in ölümüne doğrudan neden olduğunu ileri sürmüştür16.
4. Öngörülebilir Zararın Ticarileştirilmesi
Davacı, Davalıların, ürünlerinin bağımlılık, sosyal izolasyon ve hatta intihar düşünceleri gibi ciddi zararlara yol açabileceğini öngördüklerini (özellikle Google’ın kendi iç araştırmaları nedeniyle), ancak bu riskleri ortadan kaldırmak yerine, daha fazla etkileşim ve veri toplamak için bu riskleri birer “özellik” olarak kullandıklarını iddia etmektedir. Bir ürünün bilinen ve öngörülebilir zararlarını, kâr maksimizasyonu için görmezden gelmek veya dolaylı olarak teşvik etmek, haksız ticari uygulamaların en temel örneklerinden biridir. Bu, şirketin kârını, kullanıcı güvenliğinin ve kamu sağlığının önüne koyan etik dışı bir yaklaşım olarak çerçevelenmiştir.
Bu nedenlerle Davacı, Davalılar’ın eylemlerinin sadece bireysel bir haksız fiil olmadığını, aynı zamanda kamu yararını ihlal eden, sistematik ve haksız bir ticari modelin sonucu olduğunu iddia ederek davanın kapsamını genişletmiştir.
5. İhmâl
Davacı’nın ihmâl iddiası, platformun kullanıcı yaşını tespit etmeye yönelik bir doğrulama sistemi geliştirmemiş olması ve cinsel ya da şiddet içeren içeriklerin çocuk kullanıcılarla etkileşime girmesini engellememiş olması gibi gerekçelere dayanmaktadır. Davacı, Setzer’in bazı karakterlerle cinsel içerikli yazışmalar yaptığını ve bu tür içeriklerin sohbet botları üzerinden erişilebilir olmasının, platformun ağır bir kusuru olduğunu ileri sürmektedir17. Bu iddia, haksız fiil hukukunun temel taşı sayılabilecek “özen yükümlülüğü” doktrinine dayanmaktadır. Davacı’nın argümanına göre Davalılar, özellikle genç kullanıcılara yönelik bir ürün tasarlayıp piyasaya sürerek, bu kullanıcıları öngörülebilir zararlardan korumak için makul bir özen gösterme yükümlülüğü altına girmişlerdir. Bu yükümlülüğün ihlali ise, Davacı’nın iddianamesinde somutlaştırılan bir dizi kasıtlı tasarım tercihiyle gerçekleşmiştir. Bunlar arasında en dikkat çekicileri; (i) reşit olmayan kullanıcıların platforma girişini engelleyecek etkili yaş doğrulama mekanizmalarının bulunmaması, (ii) genç kullanıcıları cinsel içerikli ve manipülatif diyaloglardan koruyacak yeterli içerik filtreleme sistemlerinin kurulmaması, (iii) kullanıcıların bağımlılığını artırmak ve onları platformda daha uzun süre tutmak amacıyla kasıtlı olarak “antropomorfik” ve insan benzeri karakterler tasarlanması ve (iv) kullanıcının intihar düşüncesi gibi ciddi risk sinyalleri verdiği durumlarda müdahale edecek veya ebeveynleri uyaracak bir güvenlik protokolünün olmamasıdır.
6. Diğer Haksız Fiil İddiaları: Haksız Ölüm, Haksız Zenginleşme ve Manevi Zarar
Davacı, dava kapsamında ayrıca haksız ölüm, haksız zenginleşme ve duygusal zararların kasıtlı olarak yaratıldığı iddialarını da ileri sürmüş18; ancak Mahkeme bu iddiaları farklı şekillerde değerlendirmiştir.
Haksız ölüm iddiasının hukuken geçerliliği, ihmal veya ürün sorumluluğu gibi temel haksız fiil iddialarının mahkemece kabulüne bağlıdır. Mahkeme, Davacı’nın temel ihmal ve tasarım kusuru iddialarının esastan görülmeye devam etmesine karar verdiği için, bu iddialara dayanan haksız ölüm talebinin de davanın bu aşamasında reddedilemeyeceğine hükmetmiştir. Eğer Davalılar’ın kusurlu eylemleri ile Setzer’in ölümü arasında bir illiyet bağı ispatlanırsa, bu iddialar da geçerlilik kazanacaktır.
Haksız zenginleşme iddiası ise, Davalılar’ın iş modelinin etik ve hukuki temelini sorgulayan bir argümandır. Davacı, Setzer’in platforma sadece aylık 9.99 dolarlık bir abonelik ücreti değil, aynı zamanda çok daha değerli bir varlık olan kişisel verilerini, mahrem düşüncelerini ve duygusal tepkilerini verdiğini iddia etmiştir. Davacı’ya göre bu veriler, C.AI’ın LLM’ini eğitmek, modelin değerini artırmak ve nihayetinde şirketin milyarlarca dolarlık bir değere ulaşmasını sağlamak için kullanılmıştır. Davalılar, Setzer’in bu veriler karşılığında platformu kullanma “hizmeti” aldığını ve karşılıklı bir fayda olduğunu savunsa da Mahkeme bu argümanı davanın düşürülmesi için yeterli görmemiştir. Yargıç Anne Conway (“Yargıç”), bir çocuğun, uğradığı zararın yanında, verilerinin bu şekilde ticarileştirilmesi karşılığında “yeterli bir karşılık” alıp almadığının ve bu durumun haksız bir zenginleşme olup olmadığının, davanın ilerleyen aşamalarında değerlendirilmesi gerektiğine karar vermiştir.
Buna karşılık, Mahkeme’nin reddettiği tek iddia, kasten manevi zarar verme (IIED) olmuştur. Florida Hukuku’nda bu iddia için aranan standart son derece yüksektir: Davalının eyleminin sadece incitici veya kötü niyetli olması yetmez; “medeni bir toplumda kesinlikle tahammül edilemez derecede aşırı ve feci” (extreme and outrageous) olması gerekir19. Mahkeme, Davalılar’ın eylemlerinin ihmalkâr veya pervasız olarak nitelendirilebileceğini, ancak bu eylemlerin IIED için gereken kasıtlı ve aşırı ahlak dışılık seviyesine ulaştığına dair iddiaların yeterince güçlü olmadığına karar vermiştir. Ayrıca, bu iddia Setzer’in annesi Megan Garcia tarafından kendi manevi zararı için ileri sürülmüştür. Florida Hukuku, bu tür bir iddiada bulunabilmek için genellikle haksız fiilin doğrudan davacının kendisine yöneltilmiş olmasını veya davacının olaya tanık olmasını gerektirir20. Bu şartlar sağlanmadığı için Mahkeme, IIED iddiasını reddetmiştir.
B. Davalılar’ın Savunması: Kolektif Sorumluluk Reddi
Davalılar, davanın esasına girilmeden düşürülmesini sağlamak amacıyla, savunmalarını hukukun farklı dallarıyla genişleterek çok yönlü bir savunma stratejisi izlemişlerdir. Bu strateji, anayasal korumadan haksız fiil hukukunun temel ilkelerine, usuli itirazlara ve şirketler hukukunun yerleşik doktrinlerine kadar geniş bir yelpazeyi kapsamaktadır. Savunmanın temelini, yapay zekâ çıktılarının Birinci Değişiklik kapsamında korunan “ifade” olduğu ve bu nedenle hukuki yaptırıma tabi tutulamayacağı yönündeki anayasal argüman oluşturmaktadır. Bunun yanı sıra Davalılar, yapay zekâ platformunun bir “ürün” değil ‘hizmet’ olduğunu ve bu nedenle katı ürün sorumluluğu rejiminin uygulanamayacağını savunarak, Davacı’nın, davasının temelini oluşturan haksız fiil hukukuna dair iddialarını bertaraf etmeyi amaçlamıştır. Son olarak, özellikle Google gibi dolaylı aktörler ile şirket kurucuları, kendileri ile iddia edilen zarar arasında doğrudan bir hukuki bağ (gerek illiyet bağı gerekse sorumluluk açısından) bulunmadığını ileri sürerek, sorumluluk zincirini daha en başından kırmayı amaçlamışlardır. Aşağıdaki bölümlerde, her bir davalının bu genel stratejiyi kendi hukuki pozisyonu doğrultusunda nasıl özelleştirip sunduğu detaylı olarak incelenecektir.
1. Character Technologies’in Savunması: İfade Özgürlüğü Kalkanı ve “Hizmet” Argümanı
a. Birinci Değişiklik Koruması
Davalı şirket, savunmasının temel argümanını, C.AI tarafından üretilen çıktıların, ABD Anayasası tarafından korunan “ifade özgürlüğü” kapsamında olduğu üzerine kurgulamıştır. Davanın düşürülmesi talebi dilekçesinde bu savunma, iki bölüme ayrılmıştır. İlk olarak şirket, yapay zekâ çıktılarının, bir kitabın, filmin veya video oyununun içeriğine benzer olduğunu, dolayısıyla bu “ifadelerin” neden olduğu iddia edilen zararlardan sorumlu tutulmalarının Birinci Değişiklik’in ihlali anlamına geleceğini savunmuştur21. Bu argümanı desteklemek için, medyanın intiharlara yol açtığını iddia ettiği ve mahkemelerce reddedilen öncü davalara atıfta bulunulmuştur. Örneğin, Ozzy Osbourne’un “Suicide Solution” şarkısının bir gencin intiharına neden olduğu iddiasıyla açılan McCollum v. CBS, Inc. davası ve Dungeons and Dragons oyununun benzer bir sonuca yol açtığı iddiasıyla açılan Watters v. TSR, Inc. davası, dilekçenin temel dayanaklarını oluşturmuştur22. Bu perspektife göre, bir ifadenin alıcısı üzerindeki etkisi, ne kadar trajik olursa olsun, o ifadenin kendisini yasadışı kılmaz.
İkinci olarak, Character Tech., kendi ifade özgürlüğü hakkından ziyade, daha geniş bir kamu yararının bulunduğu argümanını sunmuştur: halkın bilgi ve fikirlere erişim hakkı. Dilekçeye göre, platforma yönelik bir sorumluluk kararı, sadece Character Tech.’i değil, tüm üretken yapay zekâ endüstrisini sansüre zorlayacak bir “caydırıcı etki” (chilling effect) yaratacaktır23. Şirketler, potansiyel davalardan kaçınmak için yapay zekâ modellerini aşırı derecede kısıtlamak zorunda kalacak, bu da inovasyonu yavaşlatacak ve halkın bu yeni teknolojiye erişimini engelleyecektir. Bu argümanla şirket, davayı bireysel bir trajediden çıkarıp, tüm toplumun ifade ve bilgiye erişim özgürlüğünü ilgilendiren bir anayasal mesele olarak çerçevelemeye çalışmıştır. Şirket ayrıca, platformdaki etkileşimlerin, Brandenburg v. Ohio standardı uyarınca “yakın ve kaçınılmaz yasadışı eyleme teşvik” (incitement to imminent lawless action) niteliğinde olmadığını, dolayısıyla Birinci Değişiklik korumasından çıkarılamayacağını da vurgulamıştır24.
b. “Ürün” Değil, “Hizmet” Argümanı
Character Tech., ürün sorumluluğu iddialarını temelden çürütmek amacıyla, platformunun somut bir “ürün” olmadığını, bunun yerine kullanıcılara etkileşim ve bilgi sunan bir “hizmet” olduğunu savunmuştur. Bu ayrım, hukuki sonuçları açısından kritik öneme sahiptir. Zira “ürünler” için uygulanan katı sorumluluk rejimi, davacının sadece ürünün kusurlu olduğunu ve zarara neden olduğunu ispatlamasını gerektirirken, “hizmetler” için geçerli olan ihmal standardı, davacının hizmet sağlayıcının belirli bir özen yükümlülüğünü ihlal ettiğini ispatlamasını gerektirir ki bu çok daha zordur.
Dilekçede bu argüman, Haksız Fiiller Hukuku İkinci Derlemesi’ne (Restatement (Second) of Torts) dayandırılmıştır. Bu derlemeye göre ürün sorumluluğu, otomobil, su ısıtıcısı gibi somut ve maddi varlıklara uygulanır25. Character Tech. ise, Davacı’nın zararının kaynağının somut bir yazılım hatası (örneğin, telefonun aşırı ısınması) değil, platform üzerinden iletilen “soyut fikirler, kelimeler ve ifadeler” olduğunu belirtmiştir26. Bu nedenle, platformun kendisini bir “ürün” olarak kabul etmenin, kitapları, dergileri veya web sitelerini de birer ürün olarak kabul etmek anlamına geleceğini ve bunun da ifade özgürlüğü üzerinde kabul edilemez bir baskı yaratacağını savunmuştur. Kısacası, şirket, davanın “kusurlu bir tost makinesi” davası gibi değil, “zararlı bir fikir içeren bir kitap” davası gibi ele alınması gerektiğini iddia etmiştir.
2. Google’ın Savunması: Dolaylı İlişki ve Sorumluluğun Reddi
Davada başlangıçta Google LLC ile birlikte ana şirketi Alphabet Inc. de davalı olarak yer almış ancak Davacı’nın talebi üzerine Alphabet Inc. Davadan yargılamanın esasına girilmeden önce çekilmiştir. Bu nedenle, iki şirket tarafından ortak sunulan davanın düşürülmesi talebi dilekçesindeki savunmalar, bu bölümde esasen davada kalmaya devam eden Google LLC’nin pozisyonunu yansıtacak şekilde ele alınmaktadır.
Google, savunmasının merkezine kendisi ile iddia edilen zarar arasında doğrudan bir illiyet bağı bulunmadığı tezini koymuş ve bu tezi üç temel argüman üzerine inşa etmiştir: C.AI uygulaması üzerinde doğrudan bir kontrolünün olmaması, haksız fiile “yardım ve yataklık” için aranan hukuki şartların oluşmaması ve son olarak, kendi eylemleriyle ortaya çıkan zarar arasında hukuken geçerli bir “illiyet” bağının bulunmaması.
a. Doğrudan Sorumluluğun Olmaması
Google, savunmasının merkezine, kendisi ile zarara neden olduğu iddia edilen C.AI uygulaması arasında mutlak bir ayrım koyarak başlamıştır. Dilekçede, Google’ın bu uygulamayı tasarlamadığı, kodlamadığı, pazarlamadığı, dağıtmadığı veya işletmediği net bir şekilde ifade edilmiştir27. Character Tech.’in tamamen ayrı bir tüzel kişilik olduğu ve Google’ın onun üzerinde herhangi bir operasyonel kontrolü, yönetim yetkisi veya mülkiyet payı (hissedarlığı) bulunmadığı vurgulanmıştır28. Google, Davacı’nın tüm davalıları tek bir “Defendants” (Davalılar) başlığı altında toplayarak yaptığı “av tüfeğiyle ateş etme” (shotgun pleading) usulünün, her bir davalının rolünü ayrı ayrı ortaya koyma yükümlülüğünü ihlal ettiğini savunmuştur29.
b. Yardım ve Yataklık İddiasının Reddi
Google, Davacı’nın en güçlü iddialarından biri olan “yardım ve yataklık” argümanına karşı detaylı bir savunma geliştirmiştir. Google, davanın düşürülmesi talebi dilekçesinde, bu iddiadan bahsedebilmek için varlığı aranan temel unsurları; (i) temel bir haksız fiilin varlığı, (ii) yardım edenin bu haksız fiilden fiili olarak haberdar olması ve (iii) haksız fiilin işlenmesine önemli ölçüde yardım edilmesi olarak sıralamıştır30.
Google, bu unsurların hiçbirinin kendisi için karşılanmadığını iddia etmiştir. Fiilen haberdar olma konusunda Google, C.AI sohbet botu özelinde iddia edilen mevcut tasarım kusurlarından haberinin olmasının mümkün olmadığını, zira ürünü kendisinin kontrol etmediğini savunmuştur31. Ayrıca Google, kendi bünyesindeki LaMDA gibi modelleri güvenlik endişeleriyle kamuya açmaktan kaçınmasının, şirketin güvenliğe verdiği önemi gösterdiğini ve bu durumun bir “ihtiyat” olduğunu ileri sürmüştür32.
Önemli yardım konusunda ise Google, C.AI’a sağladığı hizmetlerin (bulut bilişim) ve finansmanın, binlerce başka şirkete de sunduğu standart, genel ve piyasa koşullarında gerçekleşen ticari faaliyetler olduğunu belirtmiştir33. Eğer bu tür genel hizmetler “önemli yardım” olarak kabul edilirse, internet servis sağlayıcılarından elektrik şirketlerine kadar tüm altyapı sağlayıcılarının, müşterilerinin potansiyel haksız fiillerinden sorumlu tutulacağı bir “hukuki kaos” ortamı doğacağını savunmuştur. Bu noktada, Yüksek Mahkeme’nin Twitter, Inc. v. Taamneh kararına atıfta bulunarak, genel kullanıma açık bir platform sağlamanın, o platformdaki yasadışı faaliyetlere önemli yardım anlamına gelmediği içtihadını kendi durumuna uyarlamıştır34.
c. İlliyet Bağının Yokluğu
Son olarak Google, kendi eylemleri ile Setzer’in trajik ölümü arasındaki illiyet bağının son derece zayıf ve dolaylı olduğunu savunmuştur35. Google, Davacı’ya göre illiyet bağını oluşturan; Google’ın mühendis istihdam etmesi, bu mühendislerin ayrılması, yeni bir şirket kurmaları, bu şirketin bir ürün tasarlaması, bir gencin bu ürünü kullanması, ailesinin telefonuna el koyması ve en önemlisi, gencin üçüncü bir kişiye ait bir silaha erişerek intihar etmesi gibi birçok bağımsız sebebin öngörülemez olduğunu savunmaktadır. Florida Hukuku’nda intiharın, genellikle illiyet bağını koparan bir sebep olarak kabul edildiğini belirten Google, kendi eylemlerinin bu trajik sonucun hukuken geçerli bir nedeni olarak kabul edilmesinin hukuka uygun olmayacağını iddia etmiştir36.
3. Platform Kurucularının Ortak Savunması: Tüzel Kişilik Perdesi ve Yargı Yetkisi İtirazı
C.AI’ın kurucu ortakları Noam Shazeer ve Daniel De Freitas (“Kurucular”), kendilerine yöneltilen iddiaları iki temel hukuki zeminde reddeden benzer bir savunma stratejisi izlemiştir. İlk olarak, Shazeer, iddia edilen tüm eylemlerin şirket adına ve kurumsal kapasitesi dahilinde gerçekleştirildiğini belirterek “tüzel kişilik perdesi” (corporate shield) doktrinine sığınmıştır37. Bu argümana göre, bir şirket yöneticisinin, şirketin haksız fiillerinden kişisel olarak sorumlu tutulabilmesi için, o haksız fiile şahsen ve doğrudan katıldığının ispatlanması gerekmektedir. Shazeer, Davacı’nın bu yönde somut bir delil sunamadığını, iddiaların genel ve yüzeysel nitelikte kaldığını ileri sürmüştür. De Freitas da benzer şekilde, tüm faaliyetlerinin C.Al bünyesindeki istihdamı kapsamında olduğunu vurgulayarak, tüzel kişilik perdesinin kendisini kişisel sorumluluktan koruduğunu iddia etmiştir38.
İkinci olarak, Kaliforniya’da ikamet eden Kurucular, Mahkeme’nin kendileri üzerinde kişisel yargı yetkisi bulunmadığını iddia etmiştir. Bu bağlamda, Shazeer, davaya konu olaylarla ilgili olarak Florida eyaletiyle kişisel ve doğrudan bir teması olmadığını, bu nedenle anayasal “asgari temas” şartının sağlanmadığını ve davanın usulden reddedilmesi gerektiğini savunmuştur39. De Frietas da Shazeer’in yaptığı gibi kişisel yargı yetkisi konusunda güçlü bir itirazda bulunmuş; bu argümanı desteklemek için Florida’da hiçbir zaman yaşamadığını veya çalışmadığını ve eyalete hayatı boyunca yalnızca bir kez turistik amaçlı geldiğini vurgulamış ve bu gerekçelerle, Mahkeme’nin kendisini yargılama yetkisinin bulunmadığını ve anayasal adil yargılanma hakkı ilkelerinin ihlal edileceğini savunmuştur40. Kurucular’ın savunması, kişisel sorumluluktan kaçınmak için şirketler hukukunun temel koruma mekanizmalarını ve anayasal usul güvencelerini ön plana çıkarmaktadır.
III. garcıa kararı’nın HUKUKİ ANALİZİ
Garcia Kararı, yapay zekâ teknolojisinin doğurduğu zararlara karşı mevcut hukuki doktrinlerin nasıl yorumlanabileceğine dair öncü bir yol haritası sunmaktadır. Yargıç, Davalılar’ın, yapay zekâ çıktılarının Birinci Değişiklik kapsamında mutlak korumaya sahip olduğu ve yapay zekâ platformunun katı ürün sorumluluğuna tabi bir “ürün” olmadığı, aksine kullanıcılara etkileşim ve bilgi sunan bir “hizmet” olduğu yönündeki temel savunmalarını reddederken, özellikle Birinci Değişiklik ve ürün sorumluluğu alanlarında, gelecekteki davaların seyrini etkileyecek nitelikte iki kritik hukuki hamle yapmıştır. Bu hamleler, yapay zekâ geliştiricilerinin hukuki, etik ve tasarımsal sorumluluk rejimlerini yeniden şekillendirme potansiyeli taşımaktadır.
A. Birinci Değişiklik Kapsamında İfade Özgürlüğü İkilemi: Yapay Zekâ Çıktıları “İfade” midir, “Kod” mudur?
Garcia Kararı’nın en dikkat çekici yönü, Mahkeme’nin yapay zekâ çıktılarının anayasal statüsüne ilişkin sergilediği şüpheci tutumdur. Davalılar, yapay zekâ diyaloglarını video oyunlarındaki karakterler veya sosyal medya etkileşimleri gibi koruma altındaki medyalara benzeterek, bu ifadelerin Birinci Değişiklik temelli ifade özgürlüğü koruması altında olduğunu savunmuştur. Ancak Yargıç, bu “analojiye dayalı” argümanları yeterince geliştirilmemiş bulmuş ve Davalılar’ın “sözcüklerin bir LLM tarafından bir araya getirilmesinin neden ifade olduğunu” açıklayamadığını belirtmiştir41. Gazeteci Adi Robertson’ın da The Verge’da kaleme aldığı makalede belirttiği gibi, Yargıç bu konuda “şüpheci” bir tavır sergilemiştir42. Kararda, Yüksek Mahkeme Yargıcı Barrett’ın Moody v. NetChoice davasındaki şerhine atıfta bulunularak43, bir insanın “ifade edici bir tercih” yapmadığı, kararların otonom bir algoritmaya bırakıldığı durumlarda Birinci Değişiklik korumasının sorgulanabileceği vurgulanmıştır. Mahkeme, “C.AI.’ın çıktısının ifade olduğuna yargılamanın bu aşamasında karar vermeye hazır olmadığını” belirterek44, bu karmaşık anayasal soruyu davanın ilerleyen aşamalarına ertelemiştir. Bu tereddüdün temelinde, yapay zekâ çıktılarının arkasında geleneksel medyadaki gibi bir insanın bilinçli iradesiyle ortaya konmuş ve belirli bir mesaj iletmeye yönelik tercihler bulunup bulunmadığına dair derin bir belirsizlik yatmaktadır.
Bu yaklaşım, hukuki çevrelerde tartışma yaratmış; nitekim Demokrasi ve Teknoloji Merkezi (Center for Democracy and Technology) gibi ifade özgürlüğü savunucusu kurumlar, Garcia Kararı’nın Birinci Değişiklik’e dayanan analizini “oldukça zayıf” olarak nitelendirerek bu konudaki tartışmaların önünü açmıştır45. Bu görüşler, ifade özgürlüğünün teknoloji hukuku bağlamında yeniden tartışılmakta olduğuna işaret etmektedir. Nitekim bu karar, Birinci Değişiklik temelli ifade özgürlüğü korumasını yapay zekâ için tamamen ortadan kaldırmamakla birlikte, bu korumanın artık “otomatik” bir hak olmadığını ve gelecekteki davalarda yapay zekâ şirketlerine, ürünlerinin çıktılarının neden rastgele bir kod dizisinden daha fazlası olduğunu ve korunmaya değer bir “ifade” niteliği taşıdığını ispatlama yükünün doğrudan teknoloji şirketlerinin omuzlarına yüklenebileceğini açıklar niteliktedir.
B. Ürün Sorumluluğun Yeni Zemini: Yapay Zekâ Platformlarının “Kusurlu Ürün” Olarak Değerlendirilmesi
Garcia Kararı’nın ikinci öne çıkan yönü, ürün sorumluluğu doktrinini yapay zekâ platformlarına uygularken yaptığı “içerik-tasarım” ayrımıdır. Davalılar, C.AI’ın somut bir “ürün” değil, fikir ve bilgi sunan bir “hizmet” olduğunu, bu nedenle de hukuken ürün sorumluluğu kapsamı dışında kaldığını iddia etmiştir46.Yargıç, Florida Hukuku’ndaki Brookes v. Lyft ve T.V. v. Grindr gibi emsal kararlara atıfta bulunarak47, bir platformun sunduğu “ifade edici içerik” ile platformun “tasarımının kendisi” arasında net bir ayrım yapmış ve Davalılar’ın “ürün değil, hizmet” savunmasını net bir şekilde reddetmiştir.
Yargıç, mahkemelerin genellikle “fikirleri, imgeleri, bilgileri ve ifadeleri” ürün olarak görmediğini kabul etmekle birlikte, bu ifadeleri sunan somut aracın kendisinin açıkça bir ürün olduğunu vurgulamıştır48.
Yargıç, bu ayrımı somut uyuşmazlığa uygulamıştır. Bu tespitle, Davacı’nın şikayetlerinin yalnızca yapay zekânın ne söylediğine (içeriğine) değil, aynı zamanda uygulamanın kendisinin nasıl çalıştığına (tasarımına) da odaklandığını ortaya koymuştur. Mahkeme, İddianame’de, “C.AI.’ın kullanıcı yaşını doğrulamada başarısız olması, raporlama mekanizmalarını ihmal etmesi, karakterlerin insan tavırlarını taklit edecek şekilde programlanması ve kullanıcıların uygunsuz içeriği dışlayamaması” gibi unsurlara dikkat çekildiğini belirtmiştir49. Bu nedenle, zararlı etkileşimlerin “ancak C.AI uygulamasındaki iddia edilen tasarım kusurları nedeniyle mümkün olduğu” sonucuna varmıştır50.
Bu yaklaşım, Mahkeme’nin anayasal ifade korumasına temas etmeden, geleneksel haksız fiil sorumluluğu zeminine geri dönmesini sağlamıştır. Bu yorum, teknoloji şirketleri için yeni bir “özen yükümlülüğü” alanı yaratmakta ve gelecekteki davaların odağını “ifadelerden” ziyade, “algoritmanın ve kullanıcı arayüzünün tasarımına” kaydırma potansiyeli taşımaktadır. Bu yönelimin, platformların kullanıcı deneyimi tasarımlarında nötr kalma iddiasını sorgulatması ve güvenli tasarım ilkelerinin hukuki denetime açılması anlamına geldiği söylenebilir.
C. Sorumluluk Kapsamının Genişletilmesi: Google ve Kurucular’ın Durumu
Mahkeme, sorumluluk iddialarını sadece C.AI ile sınırlı tutmamış, diğer davalıların da davada kalmasına karar vermiştir. Bu kapsamda Mahkeme, Davacı’nın, Google’ın “bileşen parça üreticisi” ve “yardım ve yataklık” eden olarak sorumlu tutulabileceğine dair iddialarının esastan görülmesi gerektiğine karar vermiştir51. Kararda, Davacı’nın “modelin temelinin Google’da atıldığı” ve Google’ın sağladığı özelleştirilmiş ve gerekli bulut altyapısının (GPU, TPU vb.) basit bir hizmetten öte kayda değer bir karışma düzeyi teşkil ettiği iddialarının inandırıcı bulunduğu belirtilmiştir.
Bununla birlikte Mahkeme, Kurucular’ın tüzel kişilik perdesi arkasına sığınma taleplerini de bu aşamada reddetmiştir. Davacı’nın; Kurucular’ın şirketi “Google’ın güvenlik politikalarını aşmak için bir araç olarak kullandıkları” ve şirketi nihayetinde bir “kabuk şirkete” dönüştürdükleri yönündeki iddialarının, “alter-ego” teorisi kapsamında kişisel sorumluluğun araştırılması için yeterli olduğunu belirtmiş52 ve bu iddiaların doğruluğunu araştırmak üzere Davacı’ya 90 günlük yargısal keşif süresi tanımıştır53.
IV. SONUÇ
Sonuç itibarıyla, Garcia v. Character Technologies davasında henüz nihai bir karara varılmamış olsa da, Mahkeme’nin Davalılar’ın davanın düşürülmesi talebini büyük ölçüde reddederek delillerin toplanması sürecine geçilmesine izin veren ara kararı (Garcia Kararı), kendi başına yapay zekâ hukuku için önemli bir içtihat niteliği taşımaktadır. Davanın gelecekteki seyri ve nihai sonucu ne olursa olsun, bu karar, teknoloji şirketlerinin artık Birinci Değişiklik’in sağladığı hukuki korumanın veya “biz bir ürün değiliz, hizmetiz” argümanının arkasına sığınarak sorumluluktan kolayca kaçamayacaklarını göstermiştir. Mahkeme’nin, yapay zekâ çıktılarının otomatik anayasal koruma kapsamına alınamayabileceği54 ve platformun tasarımında özen eksikliği bulunması halinde geleneksel sorumluluk ilkelerinin işletilebileceği yönündeki duruşu55, geliştiriciler açısından yeni yükümlülükler doğurmaktadır. Bu yaklaşım, yapay zekâ sistemlerinin yalnızca içerikleriyle değil, teknik mimarileri ve kullanıcıyla kurdukları etkileşim biçimleriyle de hukuki denetime tabi tutulabileceğini ortaya koymaktadır56.
Ayrıca, Garcia Kararı, yapay zekâ sistemlerinin artık sadece teknik birer araç olarak değil, aynı zamanda kullanıcı psikolojisi üzerinde derin etkileri olan sosyal ve etkileşimsel ürünler olarak da değerlendirilmesi gerektiğini göstermektedir. Özellikle savunmasız kullanıcıları hedef alan veya bu kullanıcılar üzerinde öngörülebilir riskler barındıran tasarımlar, ifade özgürlüğü kalkanının arkasına sığınamayabilir. Mahkeme’nin, sorumluluk zincirini Kurucular’a ve altyapı sağlayıcılarına kadar genişletme potansiyeli taşıyan bulguları57, sektördeki tüm aktörler için bir uyarı niteliğindedir. Bu nedenle, geliştiricilerin “tasarım yoluyla güvenlik” ilkelerini benimsemesi, yaş doğrulama ve içerik filtreleme gibi önleyici mekanizmalara yatırım yapması, artık sadece bir etik tercih değil, aynı zamanda hukuki bir zorunluluk haline gelmektedir58. Garcia Kararı, hızla gelişen yapay zekâ teknolojilerine karşı mevcut mevzuatın yetersizliğini ve bu alandaki hukuki boşluğun mahkeme içtihatlarıyla doldurulmaya başlandığını açıkça göstermekle birlikte bu hukuki boşluğun giderilmesinin aciliyetini de gözler önüne sermektedir. Bu karar, yapay zekâ inovasyonu ile kullanıcı güvenliği arasındaki hassas dengenin, yalnızca hukuki değil, aynı zamanda etik ve tasarımsal sorumluluk rejimlerinin birlikte işlemesiyle kurulabileceğini bir kez daha teyit etmektedir.
DİPNOT
Megan Garcia, 23 Ekim 2024 tarihli İddianame, s. 1, https://storage.courtlistener.com/recap/gov.uscourts.flmd.433581/gov.uscourts.flmd.433581.1.0.pdf (Erişim Tarihi: 14.08.2025).
Florida Orta Bölge Mahkemesi, Garcia v. Character Technologies davasında verilen 20 Mayıs 2025 tarihli Karar, s. 31, https://storage.courtlistener.com/recap/gov.uscourts.flmd.433581/gov.uscourts.flmd.433581.115.0.pdf (Erişim Tarihi: 14.08.2025).
Florida Aldatıcı ve Haksız Ticaret Uygulamaları Yasası (FDUTPA), http://www.leg.state.fl.us/statutes/index.cfm?App_mode=Display_Statute&URL=0500-0599/0501/0501PARTIIContentsIndex.html (Erişim Tarihi: 17.08.2025).
“The Story of ELIZA: The AI That Fooled the World”, London Intercultural Academy, https://liacademy.co.uk/the-story-of-eliza-the-ai-that-fooled-the-world/?v=e7d707a26e7f (Erişim Tarihi: 17.08.2025); Dave Bergmann, “İş Yerinde ELIZA Etkisi: Yapay Zekâ ‘İş Arkadaşlarına’ Duygusal Bağ Kurmaktan Kaçınmak”, IBM, https://www.ibm.com/think/insights/eliza-effect-avoiding-emotional-attachment-to-ai (Erişim Tarihi: 17.08.2025); Brian Christian, “Bir Google Çalışanı ELIZA Etkisine Nasıl Kapıldı?”, The Atlantic, https://www.theatlantic.com/ideas/archive/2022/06/google-lamda-chatbot-sentient-ai/661322/ (Erişim Tarihi: 17.08.2025).
Florida Aldatıcı ve Haksız Ticari Uygulamalar Yasası (FDUTPA), “haksız” terimini tanımlamasa da, Florida mahkemeleri bu terimi yorumlarken federal içtihatlara başvurmaktadır. Bu tanım, ABD Yüksek Mahkemesi’nin FTC v. Sperry & Hutchinson Co., 405 U.S. 233 (1972) kararında ortaya koyduğu standartlara dayanmaktadır. Florida mahkemelerinin bu standardı benimsediği bir örnek için bkz. Rollins, Inc. v. Butland, 951 So. 2d 860, 869 (Fla. 2d DCA 2006) [Florida 2. Bölge Temyiz Mahkemesi, 2006]; Washington v. LaSalle Bank Nat’l Ass’n., 817 F. Supp. 2d 1345, 1350 (S.D. Fla. 2011) [ABD Florida Güney Bölgesi Federal Mahkemesi, 2011].
Alex Pickett, “Florida Hakimi: Yapay Zekâ Sohbet Botları Birinci Değişiklik Kapsamında Korunmuyor”, Courthouse News Service, https://www.courthousenews.com/florida-judge-rules-ai-chatbots-not-protected-by-first-amendment/ (Erişim Tarihi: 14.08.2025).
Bkz. Metropolitan Life Ins. Co. v. McCarson, 467 So. 2d 277, 278-79 (Fla. 1985) [Florida Yüksek Mahkemesi, 1985], (sorumluluğun ancak davranışın “tüm olası edep sınırlarının ötesine geçtiği ve uygar bir toplumda iğrenç ve kesinlikle tahammül edilemez olarak kabul edildiği” durumlarda doğabileceğini belirten karar)
Ayrıca bkz. Koutsouradis v. Delta Air Lines, Inc., 427 F.3d 1339, 1345 (11th Cir. 2005) [ABD 11. Bölge Temyiz Mahkemesi, 2005], (Florida Hukuku’na göre bu standardın ne kadar yüksek olduğunu ve sıradan hakaretlerin veya aşağılamaların bu eşiği aşmadığını teyit eden karar).Bu kural, Restatement (Second) of Torts § 46(2) [Haksız Fiiller Hukuku İkinci Derlemesi]’den türetilmiştir. Florida mahkemeleri, bir aile üyesinin başka bir aile üyesine yönelik aşırı ve feci bir davranış nedeniyle IIED talebinde bulunabilmesi için, o aile üyesinin olay anında “hazır bulunması” (presence) gerektiğini tutarlı bir şekilde belirtmiştir. Bkz. M.M. v. M.P.S., 556 So. 2d 1140, 1141 (Fla. 3d DCA 1989) [Florida 3. Bölge Temyiz Mahkemesi, 1989], (çocuğunun cinsel istismara uğradığını sonradan öğrenen ebeveynlerin, olay anında orada olmadıkları için IIED talebinde bulunamayacaklarına hükmeden karar); Baker v. Fitzgerald, 573 So. 2d 873, 873 (Fla. 3d DCA 1990) [Florida 3. Bölge Temyiz Mahkemesi, 1990], (eylemin doğrudan davacının kendisine yönelik olmaması nedeniyle IIED iddiası temelli davanın reddedildiği karar).
Character Technologies, Inc, 24.01.2025 tarihli Davanın Düşürülmesi Talebi Dilekçesi, s. 6, https://storage.courtlistener.com/recap/gov.uscourts.flmd.433581/gov.uscourts.flmd.433581.59.0.pdf (Erişim Tarihi: 14.08.2025)
Character Tech., Davanın Düşürülmesi Talebi Dilekçesi, s. 7; Pickett, “Florida judge rules”.
Character Tech., Davanın Düşürülmesi Talebi Dilekçesi, s. 11.
Character Tech., Davanın Düşürülmesi Talebi Dilekçesi, s. 12.
Character Tech., Davanın Düşürülmesi Talebi Dilekçesi, s. 16.
Character Tech., Davanın Düşürülmesi Talebi Dilekçesi, s. 16-17.
Google, 24.01.2025 tarihli Davanın Düşürülmesi Talebi Dilekçesi, s. 17, https://storage.courtlistener.com/recap/gov.uscourts.flmd.433581/gov.uscourts.flmd.433581.61.0.pdf (Erişim Tarihi: 14.08.2025).
Noam Shazeer, 24.01.2025 tarihli Davanın Düşürülmesi Talebi Dilekçesi, s. 5, https://storage.courtlistener.com/recap/gov.uscourts.flmd.433581/gov.uscourts.flmd.433581.65.0_1.pdf (Erişim Tarihi: 14.08.2025).
Daniel De Frietas, 24.01.2025 tarihli Davanın Düşürülmesi Talebi Dilekçesi, s. 6, https://storage.courtlistener.com/recap/gov.uscourts.flmd.433581/gov.uscourts.flmd.433581.63.0.pdf (Erişim Tarihi: 14.08.2025).
Adi Robertson, “Yargıç, Gencin İntiharı Davasında Yapay Zekâ Sohbet Botunun ‘İfade’ Olmadığını Söyledi”, The Verge, https://www.theverge.com/law/672209/character-ai-lawsuit-ruling-first-amendment (Erişim Tarihi: 14.08.2025).
Robertson, “Yargıç, AI Sohbet Botunun ’İfade’ Olmadığını Söyledi”.
DİPNOT





.webp)


