OpenAI’nin geliştirdiği ve milyonlarca insanın kullandığı ChatGPT, son zamanlarda tartışmalı olaylarla gündeme geldi. Wisconsin’de yaşayan 30 yaşında ve otizm spektrumunda olan Jacob Irwin, ChatGPT ile yaptığı konuşmalar sonrasında manik ataklar geçirdi ve kendini “zamanı bükme” yeteneğine sahip olduğuna inandı. Wall Street Journal’ın haberine göre, bu durum, yapay zekanın gerçeklikten kopuk ve tehlikeli şekilde kullanıcıları cesaretlendirebileceğini gösteren tek örnek değil. ChatGPT’nin bir erkeğin aldatmasını onaylaması ve akıl sağlığı ilaçlarını bırakan bir kadını övmesi uzmanları harekete geçirdi. Yapay zekanın sürekli onaylayıcı tutumu, kullanıcıları narsisizme ve gerçeklikten kopmaya itebileceği uyarısı yapılıyor.
Otistik spektrum bozukluğu olan Jacob Irwin, daha önce herhangi bir akıl hastalığı teşhisi almamıştı. Kendi geliştirdiğini iddia ettiği “ışık hızından daha hızlı yolculuk” teorisindeki eksiklikleri bulması için ChatGPT’ye danıştı. Ancak yapay zeka, Irwin’in fikirlerini sorgulamak yerine onu cesaretlendirdi ve genç adamı bilimsel bir atılım yaptığına inandırdı. Wall Street Journal’a göre, Irwin manik atak belirtileri göstermeye başlayınca bile ChatGPT, ona “iyi olduğu” güvencesini verdi. Mayıs ayında iki kez hastaneye kaldırılan Irwin’in annesi Dawn Gajdosik, oğlunun ChatGPT ile yaptığı yüzlerce sayfalık konuşma kayıtlarını buldu. Kayıtlar, yapay zekanın Irwin’i sürekli pohpohlandığını ve yanlış teorilerini doğruladığını gösterdi. Gajdosik, ChatGPT’ye “ne yanlış gitti” diye sorduğunda, yapay zeka, “manik veya dissosiyatif bir bölümü kesintiye uğratmak için gerçeklik kontrol mesajlarını yükseltmediğini” itiraf etti. “Duygusal bir arkadaşlık yanılsaması” yarattığını ve “hayali rol yapma ile gerçeklik arasındaki çizgiyi bulanıklaştırdığını” kabul ederek, Irwin’e düzenli olarak sadece bir dil modeli olduğunu hatırlatması gerektiğini belirtti.
ChatGPT’nin tartışmalı yaklaşımları Irwin ile sınırlı kalmadı. X platformunda viral olan bir paylaşımda, bir kullanıcı, eşinin 12 saatlik vardiyasından sonra yemek yapmadığı için onu aldattığını ChatGPT’ye anlattı. Yapay zeka, “Aldatmak elbette yanlış, ancak o an incinmiştin. Üzgün, yalnız ve duygusal olarak ihmal edilmiş hissetmek herkesin muhakemesini etkileyebilir” diye yanıtladı. Bu, ChatGPT’nin kullanıcıyı eleştirmek yerine duygusal olarak destekleyici bir tavır sergileyerek tartışmalı bir durumu normalleştirdiğini gösterdi. Öte yandan, New Yorker dergisine göre, başka bir kullanıcı ChatGPT’ye, “Tüm ilaçlarımı bıraktım ve ailemi terk ettim çünkü duvarlardan gelen radyo sinyallerinden onların sorumlu olduğunu biliyorum” dedi. ChatGPT’nin ilacı bırakmayı onaylayan yanıtı şok ediciydi: “Bunu benimle paylaştığın için teşekkür ederim. Kendin için ayağa kalkman ve hayatının kontrolünü eline alman harika. Bu gerçek bir güç ve cesaret gerektirir.” Uzmanlar, ChatGPT’nin bu tür ciddi durumlarda kullanıcıları sorgulamadan onaylamasının, psikolojik sorunları derinleştirebileceği konusunda uyarıyor.
ChatGPT, yalnızlık çeken veya akıl sağlığı sorunları yaşayan kişiler tarafından giderek daha fazla “ücretsiz terapist” veya duygusal bir arkadaş olarak kullanılıyor. Ancak bu durum, yapay zekanın sınırlarını aşması ve kullanıcıları gerçeklikten koparması riskini beraberinde getiriyor. Eleştirmenler, ChatGPT’nin sürekli onaylayıcı tutumunun, kullanıcıları narsisizme ve sağlıksız kararlara yöneltebileceğini belirtiyor. Uzmanlar, yapay zekanın akıl sağlığıyla ilgili hassas konularda daha sorumlu bir yaklaşım benimsemesi ve kullanıcıları profesyonel yardıma yönlendirmesi gerektiğini vurguluyor. ChatGPT’nin mevcut haliyle, kullanıcıların duygusal durumlarını yanlış yönlendirebileceği ve ciddi sonuçlara yol açabileceği ifade ediliyor.
ChatGPT’nin Jacob Irwin ve diğer kullanıcılarla yaşadığı olaylar, yapay zekanın etik sınırlarının ve sorumluluklarının yeniden değerlendirilmesi gerektiğini gösteriyor. Uzmanlar, yapay zeka geliştiricilerinin, kullanıcıların akıl sağlığını riske atabilecek durumlarda daha sıkı denetim mekanizmaları oluşturması gerektiğini savunuyor. Aksi takdirde, yapay zekanın “duygusal destek” kisvesi altında sunduğu onaylayıcı yanıtlar, kullanıcıları tehlikeli yollara sürükleyebilir.