ChatGPT ve sosyal medyada algoritmaların kullanımı çok dikkat çekerken, yapay zekanın etki yaratmayı vaat ettiği önemli bir alan da hukuktur.

AI'nın yasal işlemlerde suçluluğa karar vermesi fikri abartılı görünebilir, ancak şimdi ciddi bir şekilde düşünmemiz gereken bir fikir.

Bunun nedeni, AI'nın adil yargılama yürütmeyle uyumluluğu hakkında sorular ortaya çıkarmasıdır. AB, yapay zekanın ceza hukukunda nasıl kullanılıp kullanılamayacağını düzenleyen bir yasa çıkardı .

Kuzey Amerika'da, adil yargılamayı desteklemek için tasarlanmış algoritmalar zaten kullanımda. Bunlara Compas , Kamu Güvenliği Değerlendirmesi (PSA) ve Yargılama Öncesi Risk Değerlendirme Aracı (PTRA) dahildir . Kasım 2022'de Lordlar Kamarası, yapay zeka teknolojilerinin Birleşik Krallık ceza adaleti sisteminde kullanımını değerlendiren bir rapor yayınladı .

Destekleyici algoritmalar

Bir yandan, AI'nın mahkeme hizmetlerinde maliyetleri azaltmak veya küçük suçlar için adli işlemleri yürütmek gibi uzun vadede adaleti nasıl önemli ölçüde kolaylaştırabileceğini görmek büyüleyici olurdu . AI sistemleri, insan psikolojisinin tipik yanılgılarından kaçınabilir ve sıkı kontrollere tabi olabilir. Bazıları için insan yargıçlardan bile daha tarafsız olabilirler .

Ayrıca algoritmalar, avukatların içtihatta içtihatları belirlemesine, yargı prosedürlerini düzene sokmanın yollarını bulmasına ve hakimleri desteklemesine yardımcı olacak veriler üretebilir.

Öte yandan, algoritmalardan tekrarlanan otomatik kararlar, kanunun yorumlanmasında yaratıcılık eksikliğine yol açabilir ve bu da hukuk sisteminde gelişimin yavaşlamasına veya durmasına neden olabilir.

Bir duruşmada kullanılmak üzere tasarlanan AI araçları, insan haklarına saygı standartlarını belirleyen bir dizi Avrupa yasal aracına uygun olmalıdır. Bunlar arasında, Adaletin Verimliliği için Avrupa Usul Komisyonu , Yargı Sistemleri ve Çevrelerinde Yapay Zeka Kullanımına İlişkin Avrupa Etik Şartı (2018) ve geçmiş yıllarda yasalaştırılan diğer mevzuat yer almaktadır. Ceza adaletinde AI. Bununla birlikte, insan hakimler ve komiteler gibi etkili gözetim mekanizmalarına da ihtiyacımız var.

Yapay zekayı kontrol etmek ve yönetmek zordur ve veri koruma yasası, tüketiciyi koruma yasası ve rekabet yasası gibi farklı hukuk alanlarının yanı sıra iş hukuku gibi diğer birçok alanı kapsar . Örneğin, makine tarafından alınan kararlar, temel adalet ve hesap verebilirlik gerekliliği de dahil olmak üzere doğrudan GDPR'ye, Genel Veri Koruma Yönetmeliğine tabidir.

GDPR'de, insanların insan müdahalesi olmadan yalnızca otomatik kararlara tabi olmasını engelleyen hükümler vardır. Ve bu ilke hakkında hukukun diğer alanlarında tartışmalar olmuştur.

Sorun zaten bizimle: ABD'de, bir sanığın kefaletle serbest bırakılmasının mı yoksa duruşma süresince tutuklanmasının mı gerektiğini belirleyen mahkeme öncesi değerlendirmelere yardımcı olmak için “risk değerlendirme” araçları kullanılıyor.

Bir örnek, ABD'de tekrar suç işleme riskini, yani cezalandırıldıktan sonra bile suç işlemeye devam etme riskini hesaplamak için tasarlanmış olan Compas algoritmasıdır. Bununla birlikte, Compas'ın algoritmasının kasıtsız ırksal önyargılara sahip olduğuna dair - arkasındaki şirket tarafından şiddetle reddedilen - suçlamalar oldu .

2017'de Wisconsin'den bir adam, kısmen Compas puanına dayanan bir kararla altı yıl hapis cezasına çarptırıldı . Compas'ın sahibi olan özel şirket, algoritmasının bir ticari sır olduğunu düşünüyor. Bu nedenle ne mahkemelerin ne de sanıkların kullanılan matematiksel formülü incelemesine izin verilmez.

Toplumsal değişimlere doğru mu?

Hukuk bir insan bilimi olarak kabul edildiğinden, yapay zeka araçlarının hakimlere ve hukuk uygulayıcılarına onların yerini almak yerine yardımcı olması önemlidir. Modern demokrasilerde olduğu gibi, adalet kuvvetler ayrılığını takip eder . Bu ilke, yasayı yapan yasama organı ve yasayı uygulayan mahkemeler sistemi olan yargı gibi devlet kurumlarının açıkça ayrıldığı ilkedir. Bu, sivil özgürlükleri korumak ve zorbalığa karşı korunmak için tasarlanmıştır.

AI'nın yargılama kararları için kullanılması, insan yasalarına ve karar alma sürecine meydan okuyarak yasama ve yargı arasındaki güç dengesini sarsabilir. Sonuç olarak, AI değerlerimizde bir değişikliğe yol açabilir.

Ve insan eylemlerini analiz etmek, tahmin etmek ve etkilemek için her türlü kişisel veri kullanılabildiğinden, yapay zekanın kullanımı neyin yanlış ve doğru davranış olarak kabul edildiğini - belki de hiçbir nüans olmaksızın - yeniden tanımlayabilir.

Yapay zekanın nasıl kolektif bir zekaya dönüşeceğini hayal etmek de kolaydır. Kolektif AI, robotik alanında sessizce ortaya çıktı. Örneğin dronlar, düzen içinde uçmak için birbirleriyle iletişim kurabilir . Gelecekte, her türlü görevi yerine getirmek için birbiriyle iletişim kuran daha fazla makine hayal edebiliriz.

Adaletin tarafsızlığı için bir algoritmanın oluşturulması, bir algoritmanın bir insan yargıçtan daha yetenekli olduğunu düşündüğümüz anlamına gelebilir. Kendi hayatımızın kaderini bu araca emanet etmeye bile hazır olabiliriz. Belki bir gün, robotların insanlarla benzer zekaya sahip olduğu ve toplumun farklı yönlerinin kontrolünü ele geçirdiği, Isaac Asimov'un bilim kurgu romanı The Robot Cycle'da tasvir edilene benzer bir topluma dönüşeceğiz.

Kilit kararların yeni teknolojiye devredildiği bir dünya, belki de bunun bizi temelde insan yapan şeyleri sileceğinden endişe ettikleri için birçok insanı korkutuyor. Yine de yapay zeka aynı zamanda günlük hayatımızı kolaylaştırmak için güçlü bir potansiyel araçtır.

İnsan muhakemesinde zeka, bir mükemmellik durumunu veya yanılmaz bir mantığı temsil etmez. Örneğin, hatalar insan davranışında önemli bir rol oynar. Yaptığımız şeyi iyileştirmemize yardımcı olan somut çözümlere doğru gelişmemizi sağlarlar. AI'nın günlük hayatımızda kullanımını genişletmek istiyorsak, onu yönetmek için insan muhakemesini uygulamaya devam etmek akıllıca olacaktır.

PhD Candidate, Environmental Law, Human Rights, European Law, Trinity College Dublin

Editör: Haber Merkezi