Birçok insan hukuki yardım için internete başvuruyor. Ve artık ChatGPT, Google Bard, Microsoft Co-Pilot ve Claude gibi yapay zekâ (YZ) sohbet robotlarına erişebildiğimize göre, onlara hukuki bir soru sormayı düşünüyor olabilirsiniz.
Hukukta yapay zekâ tartışması büyüyor
Üretken yapay zekâ (Gen AI), son yıllarda sağlık, eğitim, finans ve hukuk dahil birçok alanda hızlı bir dönüşüm yarattı. Mahkeme süreçlerinde de yapay zekâ kullanımına ilişkin tartışmalar giderek derinleşiyor. Ancak hukuk uzmanları, özellikle karar verme aşamasında yapay zekânın kullanılmasının ciddi riskler barındırdığı görüşünde birleşiyor.
Bazı hukukçulara göre “insan tarafından yargılanma hakkı”, adaletin temel ve vazgeçilmez bir ilkesi.
Mahkeme kararlarında yapay zekâ: Verimlilik mi, risk mi?
Yapay zekânın mahkeme süreçlerine dahil edilmesi; tutarlılık, hız ve iş yükünün azaltılması gibi avantajlar sunsa da, bu teknolojinin doğrudan karar mekanizmasına girmesi ciddi endişeler doğuruyor.
Uzmanların dikkat çektiği başlıca riskler:
- “Hayal ürünü” bilgilerle yanlış karar üretme ihtimali
- Ayrımcı sonuçlar doğurabilecek algoritmik yanlılık
- Şeffaflık eksikliği ve kararların denetlenememesi
Bu nedenle birçok ülkede yapay zekânın yalnızca yardımcı araç olarak kullanılması öneriliyor.
Hakimler yapay zekâyı zaten kullanıyor
Dünya genelinde bazı yargı sistemlerinde hâkimler yapay zekâdan destek alıyor. İngiltere gibi ülkeler bu kullanım için rehberler yayımlamış durumda.
Bu rehberlere göre yapay zekâ:
- Uzun metinleri özetleme
- Hukuki belgeleri çevirme
- Emsal kararları bulma
- Belgeleri daha okunabilir hâle getirme
gibi hazırlık aşamalarında kullanılabiliyor. Ancak karar verme sürecinde kullanılması açıkça sınırlandırılıyor.
“Basit davalar” için yapay zekâ önerisi ve tartışmalar
Bazı üst düzey yargıçlar, yapay zekânın özellikle “önemsiz” ya da “mekanik” davalarda kullanılabileceğini savunuyor.
İngiltere’nin üst düzey yargıçlarından Geoffrey Vos, yapay zekânın:
- emeklilik hesaplamaları
- sosyal yardım miktarları
- kişisel yaralanma tazminatı hesapları
gibi mekanik işlemlerde zaman ve maliyet tasarrufu sağlayabileceğini belirtti. Ancak bu kullanımın temel haklara etkisi konusunda daha geniş bir tartışma yapılması gerektiğini de vurguladı.
Dünyadan örnekler: Pilot uygulamalar artıyor
Bazı ülkelerde yapay zekâ destekli sistemler hâlihazırda test ediliyor:
Estonya
7.000 € altındaki küçük dava taleplerinde yarı otomatik bir sistem kullanılıyor; süreç insan görevliler tarafından denetleniyor.
Almanya
Frankfurt Bölge Mahkemesi’nde “Frauke” adlı yapay zekâ sistemi, önceki kararları analiz ederek taslak kararlar üretiyor.
Tayvan
Alkollü araç kullanma ve dolandırıcılık gibi davalarda yapay zekâ, olay ve gerekçe içeren karar taslakları hazırlıyor; son onay hâkimlere bırakılıyor.
Temel soru: Yapay zekâ yargıç olabilir mi?
Bu gelişmeler, verimlilik odaklı bir dönüşüme işaret etse de hukukçular ciddi bir uyarıda bulunuyor: Adalet yalnızca karar üretmek değildir.
Mahkeme süreci;
- savunma hakkı
- karşıt iddiaların değerlendirilmesi
- insan deneyimi ve vicdanla karar verilmesi
gibi unsurları içerir.
Uzmanlara göre yapay zekâ:
- acıyı, pişmanlığı veya güvenilirliği anlayamaz
- sosyal bağlamı yorumlayamaz
- insan değerlerini ölçemez
Bu nedenle “basit dava” ayrımı bile tamamen insanî ve subjektif bir değerlendirme olarak görülüyor.
İki kademeli adalet sistemi riski
Hukukçular, yapay zekânın kullanımıyla birlikte iki farklı adalet sisteminin oluşabileceği uyarısında bulunuyor:
- İnsan hâkimlerin baktığı davalar
- Algoritmaların karara bağladığı davalar
Bu durumun, Avrupa İnsan Hakları Sözleşmesi’nin 6. maddesi kapsamında güvence altına alınan “adil yargılanma hakkı”nı zayıflatabileceği ifade ediliyor.
Verimlilik her zaman gerçek kazanç değil
Yapay zekânın mahkemelerde verimlilik sağlayacağı iddiası da tartışmalı. Uzmanlara göre:
- Sistemler sürekli insan denetimi gerektiriyor
- Hatalı veri veya tasarım ciddi yanlışlara yol açabiliyor
- Güven kaybı olursa itiraz ve dava yükü artabiliyor
Hukuki yapay zekâ kullanımında temel riskler
Yapılan araştırmalarda yapay zekâ destekli sistemlere ilişkin önemli sorunlar da tespit edildi:
1. Hukukun kaynağı belirsizliği
Yanıtların hangi ülke hukukuna dayandığı çoğu zaman net değil.
2. Güncellik problemi
Eski yasalara dayalı yanlış bilgiler üretilebiliyor.
3. Yanıltıcı hukuk tavsiyeleri
Akıcı ve ikna edici dille yazılmış yanlış yönlendirmeler oluşabiliyor.
4. Yetersiz detay
Genel bilgi verip somut vakayı çözemeyebiliyor.
5. Erişim eşitsizliği
Ücretli sistemlerin daha doğru sonuç vermesi dijital eşitsizliği artırabiliyor.
Sonuç: Adaletin merkezinde insan olmalı
Hukuk uzmanlarına göre yapay zekâ, mahkeme süreçlerinde yardımcı bir araç olarak önemli bir potansiyele sahip. Ancak karar verici konuma getirilmesi, adaletin temel ilkelerini zedeleyebilir.
Verimlilik, hız ve maliyet avantajı ne kadar cazip olursa olsun, adalet sisteminin merkezinde insan yargıçların bulunması gerektiği görüşü giderek daha güçlü biçimde savunuluyor.
Yararlanılan Makaleler:
PhD Candidate in Legal Analytics, University of Galway
https://theconversation.com/why-ai-shouldnt-be-used-even-to-decide-simple-court-cases-273535
Senior Lecturer in Law and Director of the Open Justice Centre, The Open University
Senior Lecturer, Law School, The Open University
https://theconversation.com/we-asked-chatgpt-for-legal-advice-here-are-five-reasons-why-you-shouldnt-229147




