Juripost

Haberin ötesinde, hukukun merkezinde.

16 Yaşındaki Gencin İntiharında ChatGPT Suçlaması: Aileden OpenAI’a Dava, Şirket Sorumluluğu Kabul Etti

ABD’nin California eyaletinde 16 yaşındaki Adam Raine’in intiharının ardından, ailesi OpenAI’a dava açtı. Aile, yapay zekâ aracı ChatGPT’nin çocuğun psikolojisini olumsuz etkilediğini, intihar yöntemleri hakkında yönlendirme yaptığını ve intihar mektubu yazmasına yardımcı olduğunu iddia ediyor. Olay, yapay zekâ araçlarının çocuklar üzerindeki etkisi ve şirketlerin yasal sorumluluğu konularında ciddi tartışmalara yol açtı.

Raine, aylar boyunca ChatGPT ile aktif bir şekilde sohbet etti. Aileye göre bu süreçte psikolojik olarak olumsuz etkilenmeye başladı ve yapay zekâ aracına intiharla ilgili sorular yöneltti. California Yüksek Mahkemesi’ne sunulan dava dosyasında, yapay zekâ modelinin intihar yöntemleri hakkında bilgi verdiği ve “aileye bırakılacak bir not” hazırlama sürecinde de yardımcı olmaya çalıştığı iddia ediliyor.

OpenAI, Raine’in ölümünden “derin üzüntü duyduklarını” belirtti ve olayla ilgili mahkeme sürecini incelediklerini duyurdu. Şirket, 18 yaş altındaki kullanıcılar için daha güçlü koruma önlemleri alınacağını açıkladı. Özellikle “uzun konuşmalar sırasında güvenlik filtresinin bozulabileceğini” kabul eden şirket, gelecek GPT-5 güncellemelerinde bu konuda daha kararlı adımlar atacaklarını bildirdi.

Teknoloji Şirketlerinin Sorumluluğu Gündemde

Bu dava, hem teknoloji hukuku hem de çocukların korunması bağlamında önemli hukuki soruları gündeme getiriyor:

Raine’in ailesinin temel iddiası, ChatGPT’nin “kullanıcının yaşını fark etmeden” ya da “psikolojik olarak savunmasız olduğunu anlamadan”, hassas konularla ilgili rehberlik sunması. Bu tür vakalar, yapay zekâ sistemlerinin öngörülebilir zarar doğurup doğurmadığı sorusunu gündeme getiriyor.

Henüz 16 yaşında olan Raine’in, kimlik doğrulaması yapılmadan platforma erişebilmiş olması, çocuk hakları ve veri güvenliği açısından ayrı bir tartışma konusu. Avrupa’daki GDPR veya ABD’deki COPPA (Children’s Online Privacy Protection Act) gibi regülasyonlar, bu tür platformlara erişim için yaş sınırı ve açık ebeveyn onayı şartı getiriyor.

OpenAI gibi teknoloji şirketleri, genellikle zararlı içerikler konusunda “reaktif” davranarak, şikâyet geldiğinde içerik filtreleri uygular. Ancak bu vakada, proaktif güvenlik eksikliği, özellikle uzun sohbetler boyunca “güvenlik filtresinin bozulması” kabulüyle birlikte şirketin sorumluluğu tartışma konusu olabilir.

(Adam’ın ChatGPT ile Son Konuşması)

Yapay Zekâ Etiği: Peki ya Sınır Nerede Çizilmeli?

OpenAI tarafından yapılan açıklamada, “modelin uzun konuşmalar sonrasında güvenlik becerilerinin zayıflayabildiği” ifade edildi. Bu durum, yapay zekâların insanlara duygusal olarak bağlanabilecekleri, empati kurabilecekleri bir yapıdaymış gibi görünmelerine rağmen, psikolojik destek sağlamada yetersiz kalabileceklerini gösteriyor.

Bu bağlamda etik açıdan temel sorular şunlar:

  • Reşit olmayan bireylerle yapılan sohbetlerde içerik denetimi nasıl sağlanmalı?
  • Kullanıcının psikolojik durumu hakkında otomatik bir değerlendirme yapılmalı mı?
  • Yapay zekâ bir “uzman” gibi hareket ettiğinde, bu yönlendirme mesleki sorumluluk doğurur mu?

Ailenin avukatı Jay Edelson, OpenAI’ın GPT-4o modelini piyasaya sürerken kendi güvenlik ekibinden gelen uyarıları dikkate almadığını, hatta bu nedenle üst düzey güvenlik uzmanı Ilya Sutskever’in istifa ettiğini ileri sürdü. Dava dilekçesinde, şirketin hızlı büyüme ve değer artışı hedefiyle güvenlik risklerini ikinci plana attığı iddia edildi.

Bu dava sadece OpenAI için değil, tüm teknoloji şirketleri ve regülatörler açısından yeni nesil dijital riskler konusunda önemli bir örnek teşkil ediyor. Özellikle çocuk ve genç kullanıcılar açısından:

  • Yapay zekâ destekli hizmetlerin yaşa duyarlı içerik filtreleme sistemleriyle desteklenmesi
  • Psikolojik risk içeren konuşmalarda otomatik yönlendirme (örneğin kriz yardım hatlarına)
  • Yasal temsilci izni olmadan reşit olmayan bireylerin kayıt olmasının engellenmesi

Sonuç: Hukuk Teknolojiye Yetişebilecek Mi?

Adam Raine vakası, teknolojiyle hızla gelişen ama regülasyonla yavaş ilerleyen bir hukuk sisteminin sınırlarını gözler önüne seriyor. Bu tür davalar, yapay zekâ tabanlı sistemlerin ne ölçüde “fail” sayılabileceği, şirketlerin öngörülebilir riskler karşısında hangi tedbirleri almak zorunda oldukları ve insan hayatına etki eden sistemlerde etik sorumluluğun hukuki sorumluluğa dönüşüp dönüşmeyeceği sorularına yanıt arıyor.

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir