Hukuk

Yapay Zekânın “Basit” Mahkeme Davalarında Bile Yargıç Olmaması Gerektiğine Dair Uyarılar

Yapay zekâ, bir insan gibi acıyı, güvenilirliği, pişmanlığı veya kırılganlığı tanıyamaz. Bu bile onu bir yargıç koltuğunda oturmaya uygunsuz kılar.

Abone Ol

Birçok insan hukuki yardım için internete başvuruyor. Ve artık ChatGPT, Google Bard, Microsoft Co-Pilot ve Claude gibi yapay zekâ (YZ) sohbet robotlarına erişebildiğimize göre, onlara hukuki bir soru sormayı düşünüyor olabilirsiniz.

Hukukta yapay zekâ tartışması büyüyor

Üretken yapay zekâ (Gen AI), son yıllarda sağlık, eğitim, finans ve hukuk dahil birçok alanda hızlı bir dönüşüm yarattı. Mahkeme süreçlerinde de yapay zekâ kullanımına ilişkin tartışmalar giderek derinleşiyor. Ancak hukuk uzmanları, özellikle karar verme aşamasında yapay zekânın kullanılmasının ciddi riskler barındırdığı görüşünde birleşiyor.

Bazı hukukçulara göre “insan tarafından yargılanma hakkı”, adaletin temel ve vazgeçilmez bir ilkesi.

Mahkeme kararlarında yapay zekâ: Verimlilik mi, risk mi?

Yapay zekânın mahkeme süreçlerine dahil edilmesi; tutarlılık, hız ve iş yükünün azaltılması gibi avantajlar sunsa da, bu teknolojinin doğrudan karar mekanizmasına girmesi ciddi endişeler doğuruyor.

Uzmanların dikkat çektiği başlıca riskler:

  • “Hayal ürünü” bilgilerle yanlış karar üretme ihtimali
  • Ayrımcı sonuçlar doğurabilecek algoritmik yanlılık
  • Şeffaflık eksikliği ve kararların denetlenememesi

Bu nedenle birçok ülkede yapay zekânın yalnızca yardımcı araç olarak kullanılması öneriliyor.

Hakimler yapay zekâyı zaten kullanıyor

Dünya genelinde bazı yargı sistemlerinde hâkimler yapay zekâdan destek alıyor. İngiltere gibi ülkeler bu kullanım için rehberler yayımlamış durumda.

Bu rehberlere göre yapay zekâ:

  • Uzun metinleri özetleme
  • Hukuki belgeleri çevirme
  • Emsal kararları bulma
  • Belgeleri daha okunabilir hâle getirme

gibi hazırlık aşamalarında kullanılabiliyor. Ancak karar verme sürecinde kullanılması açıkça sınırlandırılıyor.

“Basit davalar” için yapay zekâ önerisi ve tartışmalar

Bazı üst düzey yargıçlar, yapay zekânın özellikle “önemsiz” ya da “mekanik” davalarda kullanılabileceğini savunuyor.

İngiltere’nin üst düzey yargıçlarından Geoffrey Vos, yapay zekânın:

  • emeklilik hesaplamaları
  • sosyal yardım miktarları
  • kişisel yaralanma tazminatı hesapları

gibi mekanik işlemlerde zaman ve maliyet tasarrufu sağlayabileceğini belirtti. Ancak bu kullanımın temel haklara etkisi konusunda daha geniş bir tartışma yapılması gerektiğini de vurguladı.

Dünyadan örnekler: Pilot uygulamalar artıyor

Bazı ülkelerde yapay zekâ destekli sistemler hâlihazırda test ediliyor:

Estonya

7.000 € altındaki küçük dava taleplerinde yarı otomatik bir sistem kullanılıyor; süreç insan görevliler tarafından denetleniyor.

Almanya

Frankfurt Bölge Mahkemesi’nde “Frauke” adlı yapay zekâ sistemi, önceki kararları analiz ederek taslak kararlar üretiyor.

Tayvan

Alkollü araç kullanma ve dolandırıcılık gibi davalarda yapay zekâ, olay ve gerekçe içeren karar taslakları hazırlıyor; son onay hâkimlere bırakılıyor.

Temel soru: Yapay zekâ yargıç olabilir mi?

Bu gelişmeler, verimlilik odaklı bir dönüşüme işaret etse de hukukçular ciddi bir uyarıda bulunuyor: Adalet yalnızca karar üretmek değildir.

Mahkeme süreci;

  • savunma hakkı
  • karşıt iddiaların değerlendirilmesi
  • insan deneyimi ve vicdanla karar verilmesi

gibi unsurları içerir.

Uzmanlara göre yapay zekâ:

  • acıyı, pişmanlığı veya güvenilirliği anlayamaz
  • sosyal bağlamı yorumlayamaz
  • insan değerlerini ölçemez

Bu nedenle “basit dava” ayrımı bile tamamen insanî ve subjektif bir değerlendirme olarak görülüyor.

İki kademeli adalet sistemi riski

Hukukçular, yapay zekânın kullanımıyla birlikte iki farklı adalet sisteminin oluşabileceği uyarısında bulunuyor:

  • İnsan hâkimlerin baktığı davalar
  • Algoritmaların karara bağladığı davalar

Bu durumun, Avrupa İnsan Hakları Sözleşmesi’nin 6. maddesi kapsamında güvence altına alınan “adil yargılanma hakkı”nı zayıflatabileceği ifade ediliyor.

Verimlilik her zaman gerçek kazanç değil

Yapay zekânın mahkemelerde verimlilik sağlayacağı iddiası da tartışmalı. Uzmanlara göre:

  • Sistemler sürekli insan denetimi gerektiriyor
  • Hatalı veri veya tasarım ciddi yanlışlara yol açabiliyor
  • Güven kaybı olursa itiraz ve dava yükü artabiliyor

Hukuki yapay zekâ kullanımında temel riskler

Yapılan araştırmalarda yapay zekâ destekli sistemlere ilişkin önemli sorunlar da tespit edildi:

1. Hukukun kaynağı belirsizliği

Yanıtların hangi ülke hukukuna dayandığı çoğu zaman net değil.

2. Güncellik problemi

Eski yasalara dayalı yanlış bilgiler üretilebiliyor.

3. Yanıltıcı hukuk tavsiyeleri

Akıcı ve ikna edici dille yazılmış yanlış yönlendirmeler oluşabiliyor.

4. Yetersiz detay

Genel bilgi verip somut vakayı çözemeyebiliyor.

5. Erişim eşitsizliği

Ücretli sistemlerin daha doğru sonuç vermesi dijital eşitsizliği artırabiliyor.

Sonuç: Adaletin merkezinde insan olmalı

Hukuk uzmanlarına göre yapay zekâ, mahkeme süreçlerinde yardımcı bir araç olarak önemli bir potansiyele sahip. Ancak karar verici konuma getirilmesi, adaletin temel ilkelerini zedeleyebilir.

Verimlilik, hız ve maliyet avantajı ne kadar cazip olursa olsun, adalet sisteminin merkezinde insan yargıçların bulunması gerektiği görüşü giderek daha güçlü biçimde savunuluyor.

Yararlanılan Makaleler:

PhD Candidate in Legal Analytics, University of Galway

https://theconversation.com/why-ai-shouldnt-be-used-even-to-decide-simple-court-cases-273535

Senior Lecturer in Law and Director of the Open Justice Centre, The Open University

Senior Lecturer, Law School, The Open University

https://theconversation.com/we-asked-chatgpt-for-legal-advice-here-are-five-reasons-why-you-shouldnt-229147