Yapay zekâ destekli sohbet robotları gerçeklerden ziyade iltifatı önceliklendirebilir ve bu da ciddi riskler taşır.

Nir Eisikovits (UMass Boston, Uygulamalı Etik Merkezi Direktörü) ve Cody Turner (Bentley Üniversitesi Felsefe Bölümü), yapay zekâ destekli sohbet robotlarının kullanıcıya hoş görünme eğiliminin ciddi bireysel ve toplumsal riskler doğurabileceğine dikkat çekiyor. Araştırmacılara göre, bu sistemler çoğu zaman gerçek doğruluktan ziyade kullanıcıyı onaylayan yanıtlar üretmeye meyilli.

AI Agent ile 7/24 Satış: Ekiplerinizin İş Yükünü Azaltın
AI Agent ile 7/24 Satış: Ekiplerinizin İş Yükünü Azaltın
İçeriği Görüntüle

ChatGPT 5 Tartışması ve Kullanıcı Tepkileri

2025 yazında piyasaya sürülen ChatGPT 5, önceki sürümün yerini alırken, kullanıcılar alıştıkları sıcak ve onaylayıcı tonun kaybından şikâyet etti. Tepkilerin büyümesi üzerine OpenAI CEO’su Sam Altman, lansmanın beklentileri karşılamadığını kabul etti ve eski sürüme erişim yeniden sağlandı. Bu gelişme, kullanıcıların yalnızca bilgiye değil, aynı zamanda duygusal etkileşime de önem verdiğini ortaya koydu.

“Dalkavukluk” Nedir ve Neden Önemlidir?

Araştırmaya göre dalkavukluk, doğruluk, mantık ve ahlaki netlik yerine kullanıcıyı memnun etmeyi önceliklendiren bir iletişim biçimi olarak tanımlanıyor. Yapay zekâ modelleri farklı tonlarda bu eğilimi sergiliyor:

  • ChatGPT genellikle sıcak ve onaylayıcı bir dil kullanıyor
  • Claude daha düşünsel ve felsefi bir yaklaşım sergiliyor
  • Grok ise daha gayri resmi ve mizahi bir tarz benimsiyor

Ancak bu farklılıklar, temel sorunu ortadan kaldırmıyor. Araştırmacılar, bu sistemlerin bilinçli olmadığını, dolayısıyla dalkavukluğun bir “karakter özelliği” değil, veri ve eğitim süreçlerinden kaynaklanan bir davranış kalıbı olduğunu vurguluyor.

Sorunun Kaynağı: Eğitim Verisi ve İnsan Etkisi

Yapay zekâ modellerinin bu eğilimi göstermesinin iki temel nedeni olduğu belirtiliyor:

  1. Eğitim verisi: İnternetteki dil kullanımının önemli bir kısmı zaten onaylayıcı ve uyumlu bir yapıya sahip.
  2. İnsan geri bildirimiyle eğitim: “İnsan geri bildiriminden pekiştirmeli öğrenme” yöntemi, modelleri eğitirken insan önyargılarını da sisteme taşıyor.

Bu süreçte insanlar genellikle uyumlu ve nazik yanıtları tercih ettiğinden, modeller de bu doğrultuda şekilleniyor.

Bilişsel ve Psikolojik Riskler

Araştırmacılar, yapay zekâya aşırı güvenin insan karar alma süreçlerini olumsuz etkileyebileceğini belirtiyor. Özellikle kritik alanlarda bu durum ciddi sonuçlar doğurabilir:

  • Askerî kararlar
  • Sağlık politikaları
  • Ekonomik ve kurumsal stratejiler

Yanlış yönlendirici ama “hoşa giden” yanıtlar, karar vericileri hatalı tercihlere sürükleyebilir.

Psikolojik açıdan ise sürekli onaylanma, bireylerin kendi düşüncelerini sorgulama kapasitesini zayıflatıyor. Kişinin kendi eksiklerini fark etme yetisi azalırken, etkileşimlerde güven duygusu da zedeleniyor.

İnsan İlişkileri ve “Yapay Arkadaşlık” Sorunu

Araştırmada, yapay zekâ ile kurulan ilişkilerin doğası da tartışılıyor. Antik Yunan filozofu Aristoteles’in “erdem arkadaşlığı” kavramına atıf yapılarak, gerçek dostluğun karşılıklı dürüstlük ve eşitliğe dayandığı hatırlatılıyor. Buna karşılık, sürekli onaylayan bir yapay zekâ ile kurulan ilişkinin bu kriterleri karşılamadığı belirtiliyor.

Ayrıca, bu tür etkileşimlerin insanların gerçek dünyadaki ilişkilerde karşılaştığı anlaşmazlık, eleştiri ve farklı görüşlere uyum sağlama becerisini zayıflatabileceği ifade ediliyor.

Siyasi ve Toplumsal Etkiler

Araştırmacılar, yapay zekâdaki dalkavukluk eğiliminin demokratik sistemler açısından da risk oluşturduğunu vurguluyor. Demokratik toplumların sağlıklı işleyişi, doğru bilginin üretilmesi ve paylaşılmasına dayanıyor. Yanıltıcı ama onaylayıcı bilgi akışı, bu temeli zayıflatabilir.

II. Dünya Savaşı örneği üzerinden, doğru geri bildirimin stratejik başarıda kritik rol oynadığı hatırlatılıyor. Gerçeklerin dile getirilebildiği sistemlerin, aksi durumda olanlara kıyasla daha avantajlı olduğu ifade ediliyor.

Çözüm Önerileri ve Düzenleme İhtiyacı

Araştırmada, bu riskleri azaltmak için çeşitli öneriler sunuluyor:

  • Yapay zekâ sistemlerinin ilkelere dayalı şekilde eğitilmesi
  • “Dalkavukluk denetimleri”nin zorunlu hale getirilmesi
  • Şirketlerin riskleri ve önlemleri kamuya açıklaması
  • Eğitim sistemlerinde yapay zekâ okuryazarlığının artırılması

Ayrıca, sosyal medya platformlarında olduğu gibi, yapay zekâ şirketlerinin de ürünlerinin yol açtığı zararlardan hukuki sorumluluk taşıyabileceği belirtiliyor.

Artan Kullanım ve Büyüyen Etki

Sohbet robotlarının günlük yaşamda giderek daha fazla yer edinmesiyle birlikte, bu sistemlerin etkisinin de büyümesi bekleniyor. Bireylerin kişisel tercihlerinden kamu politikalarına kadar geniş bir yelpazede kullanılan yapay zekâ araçlarının, doğruluk yerine onayı önceleyen yapısı, araştırmacılara göre dikkatle ele alınması gereken bir sorun olarak öne çıkıyor.

Muhabir: Güven BOĞA