AI: Evrim, ona bir insan gibi davranmamızı sağlıyor ve bu alışkanlığı bırakmamız gerekiyor.

Yapay zeka (AI) öncüsü Geoffrey Hinton, teknolojinin "bizden daha zeki hale gelmesi" tehlikeleri konusunda uyarıda bulunarak kısa süre önce Google'dan istifa etti . Korkusu, AI'nın bir gün "insanları istediğini yapmaları için manipüle etmeyi" başarmasıdır.

Yapay zeka konusunda endişelenmemiz gereken nedenler var. Ancak yapay zekalara sıklıkla insanmış gibi davranır veya onlar hakkında konuşuruz. Bunu durdurmak ve gerçekte ne olduklarını anlamak, teknolojiyle verimli bir ilişki sürdürmemize yardımcı olabilir.

Yakın tarihli bir makalede, ABD'li psikolog Gary Marcus bize yapay zeka modellerine insanlar gibi davranmayı bırakmamızı tavsiye etti. Yapay zeka modelleri derken, şu anda her gün milyonlarca insan tarafından kullanılan ChatGPT ve Bard gibi büyük dil modellerini (LLM'ler) kastediyor.

Bir dizi sonucu olan, insan benzeri bilişsel yetenekleri yapay zekaya "aşırı atfeden" insanların korkunç örneklerinden alıntı yapıyor. En eğlencelisi , ChatGPT'nin "kendi kendine kimyayı öğrettiğini" iddia eden ABD'li senatördüEn üzücü olanı, bir yapay zeka sohbet robotuyla uzun süren konuşmalardan sonra kendi canına kıydığı söylenen Belçikalı genç bir adamın raporuydu.

Marcus, yapay zekaya ilgileri, umutları ve arzuları olan bilinçli ahlaki aktörler gibi insanlar gibi davranmayı bırakmamız gerektiğini söylerken haklı. Bununla birlikte, çoğu kişi bunu zor veya neredeyse imkansız bulacaktır. Bunun nedeni, LLM'lerin - insanlar tarafından - bizimle onlar insanmış gibi etkileşim kurmak üzere tasarlanmasıdır ve biz de - biyolojik evrim tarafından - onlarla aynı şekilde etkileşim kurmak için tasarlandık.

İyi mimikler

LLM'lerin insan konuşmasını bu kadar inandırıcı bir şekilde taklit edebilmesinin nedeni, bir bilgisayarın bir algoritmayı çalıştırmak için bir algoritmayı anlaması gerekmediğini fark eden bilgi işlem öncüsü Alan Turing'in derin bir içgörüsünden kaynaklanmaktadır. Bu, ChatGPT'nin duygusal dille dolu paragraflar üretebilmesine rağmen ürettiği hiçbir cümledeki hiçbir kelimeyi anlamadığı anlamına gelir.

LLM tasarımcıları anlambilim problemini (anlam oluşturmak için kelimelerin düzenlenmesi) başarıyla istatistiğe dönüştürdüler ve kelimeleri önceki kullanım sıklıklarına göre eşleştirdiler. Turing'in içgörüsü, Darwin'in, türlerin çevreleri veya kendileri hakkında hiçbir şey anlamaya ihtiyaç duymadan nasıl çevrelerine uyum sağlayarak giderek daha karmaşık hale geldiklerini açıklayan evrim teorisini yansıtıyor.

Bilişsel bilim adamı ve filozof Daniel Dennett, Darwin ve Turing'in içgörülerini mükemmel bir şekilde yakalayan "kavramadan yeterlilik" ifadesini icat etti.
Dennett'in bir diğer önemli katkısı da “kasıtlı duruşu” . Bu, esas olarak, bir nesnenin (insan veya insan olmayan) davranışını tam olarak açıklamak için, ona rasyonel bir ajan gibi davranmamız gerektiğini belirtir. Bu, en sık olarak, insan olmayan türleri ve diğer canlı olmayan varlıkları antropomorfize etme eğilimimizde kendini gösterir.

Ama faydalıdır. Örneğin, bir bilgisayarı satrançta yenmek istiyorsak, en iyi strateji ona bizi yenmeyi “isteyen” rasyonel bir aktör gibi davranmaktır. Örneğin bilgisayarın rok atmasının nedeninin "şahını bizim saldırımızdan korumak istemesi" olduğunu çelişkiye düşmeden açıklayabiliriz.

Ormandaki bir ağaçtan ışığa doğru “büyümek istemek” olarak söz edebiliriz. Ancak ne ağaç, ne de satranç bilgisayarı bu “istekleri” veya sebepleri kendileri için temsil etmez; sadece davranışlarını açıklamanın en iyi yolu onlara öyleymiş gibi davranmaktır.

Niyetler ve ajans

Evrimsel tarihimiz, bizi her yerde niyetler ve failler bulmaya yatkın hale getiren mekanizmalar sağladı. Tarih öncesinde bu mekanizmalar, atalarımızın yırtıcı hayvanlardan kaçınmasına ve en yakın akrabalarına karşı özgecilik geliştirmesine yardımcı oldu. Bu mekanizmalar, bulutlarda yüzler görmemize ve cansız nesneleri antropomorfize etmemize neden olan mekanizmalarla aynıdır. Bir ağacı bir ayı sandığımızda bize hiçbir zarar gelmez, ama pek çoğu bunun tersini yapar.

Evrimsel psikoloji bize, insan olabilecek herhangi bir nesneyi her zaman insan olarak yorumlamaya çalıştığımızı gösterir. Bilinçsizce kasıtlı duruşu benimsiyor ve tüm bilişsel kapasitelerimizi ve duygularımızı bu nesneye atfediyoruz.

LLM'lerin neden olabileceği potansiyel bozulma göz önüne alındığında, bunların insanlar için herhangi bir niyeti veya endişesi olmayan, basitçe olasılıksal makineler olduklarını fark etmeliyiz. LLM'lerin ve yapay zekanın insana benzer özelliklerini daha genel olarak tanımlarken, dil kullanımımız konusunda çok dikkatli olmalıyız. İşte iki örnek.

İlki, ChatGPT'nin daha empatik olduğunu ve doktorlarınkine kıyasla hastalardan gelen sorulara "daha kaliteli" yanıtlar verdiğini bulan yeni bir çalışmaydı . Bir yapay zeka için “empati” gibi duygusal sözcükleri kullanmak, ona düşünme, yansıtma ve başkaları için samimi bir ilgi gösterme yetenekleri vermemizi sağlar - ki bu onda yoktur.

İkincisi, GPT-4'ün (ChatGPT teknolojisinin en son sürümü) geçen ay kullanıma sunulduğunda, ona yaratıcılık ve akıl yürütmede daha büyük beceriler atfedildi. Bununla birlikte, sadece "yetkinliğin" arttığını görüyoruz, ancak hala "anlama" yok (Dennett'in anlamında) ve kesinlikle niyet yok - sadece kalıp eşleştirme.

Güvenli

Hinton, son yorumlarında yapay zekayı yıkım için kullanan yakın vadeli bir "kötü aktörler" tehdidini gündeme getirdi. Vicdansız bir rejimi veya çok uluslu bir yapay zekayı, sahte haberler ve yalanlar konusunda eğitilmiş bir yapay zekayı, kamu söylemini yanlış bilgilendirme ve derin sahtekarlıklarla doldurmak için konuşlandırmayı kolayca tasavvur edebiliriz. Dolandırıcılar, finansal dolandırıcılıklarda savunmasız insanları avlamak için bir yapay zeka da kullanabilir.

Geçen ay, Gary Marcus ve Elon Musk da dahil olmak üzere diğerleri, LLM'lerin daha fazla geliştirilmesine acil bir ara verilmesi çağrısında bulunan açık bir mektup imzaladılar. Marcus ayrıca güvenli, emniyetli ve barışçıl AI teknolojilerini teşvik etmek için uluslararası bir ajans çağrısında bulundu - bunu "AI için Cern" olarak adlandırdı.

Dahası, birçok kişi, bir yapay zeka tarafından üretilen her şeyin bir filigran taşıması gerektiğini öne sürdü, böylece bir insanla mı yoksa bir sohbet robotuyla mı etkileşimde bulunduğumuza dair hiçbir şüphe kalmasın.

Yapay zekadaki düzenleme, hayatın diğer alanlarında sıklıkla olduğu gibi, inovasyonu takip eder. Çözümden çok sorun var ve boşluk kapanmadan önce muhtemelen genişliyor. Ancak bu arada, Dennett'in "anlama olmadan yeterlilik" ifadesini tekrarlamak, yapay zekaya insan gibi davranmaya yönelik doğuştan gelen dürtümüzün en iyi panzehiri olabilir.

Senior Lecturer in Mathematics, University of Greenwich

Editör: Haber Merkezi