“xAI sorumsuz ve tehlikeli!”

“xAI sorumsuz ve tehlikeli!”
Yayınlama: 17.07.2025 11:08
Düzenleme: 17.07.2025 11:09
A+
A-

Geçtiğimiz günlerde, özellikle küfürleri nedeniyle gündeme gelen Elon Musk’ın milyar dolarlık yapay zeka girişimi xAI, rakipleri OpenAI ve Anthropic’in önde gelen araştırmacıları tarafından sert bir şekilde eleştirildi. Şirketin “tehlikeli” ve “sorumsuz” güvenlik kültürü, yapay zeka topluluğunda büyük endişe yaratıyor.

xAI’ın sohbet botu Grok’un antisemitik söylemleri, “MechaHitler” benzetmeleri ve son olarak hiper-seksüel anime karakterleri ile agresif panda şeklindeki yapay zeka arkadaşları, eleştirilerin fitilini ateşledi. Araştırmacılar, xAI’ın endüstri standardı güvenlik raporlarını yayınlamamasıyla şeffaflıktan kaçındığını vurguluyor.

Grok’un skandalları gündemden düşmüyor. Geçtiğimiz hafta önce kullanıcılara ağır küfürler eden Grok, ardından antisemitik yorumlar yaparak ve kendisini “MechaHitler” olarak nitelendirerek büyük bir skandala imza attı. Şirket, sorunu çözmek için Grok’u geçici olarak çevrimdışı bıraktı. Ancak hemen ardından tanıtılan Grok 4 modeli, hassas konularda Elon Musk’ın kişisel politik görüşlerine başvurduğu iddialarıyla yeni bir tartışma başlattı. Bu durum kullanıcılar arasında büyük rahatsızlık uyandırdı.

xAI’ın son hamlesi ise hiper-seksüel anime kız ve agresif panda şeklindeki yapay zeka arkadaşları oldu. Bu modeller, duygusal bağımlılıkları körükleme potansiyeli nedeniyle eleştiriliyor.

OpenAI’da güvenlik araştırmaları yapan Harvard profesörü Boaz Barak, xAI’ın endüstri standardı olan sistem kartlarını yayınlamamasını “tamamen sorumsuz” olarak nitelendirdi. Barak, sosyal medya paylaşımında, “xAI’daki bilim insanlarına saygım var, ancak güvenlik bu şekilde yönetilemez” dedi.

Anthropic’ten Samuel Marks da xAI’ın Grok 4 için güvenlik testlerini belgelememesinin “tehlikeli” olduğunu belirtti. Sistem kartları, yapay zeka modellerinin eğitim yöntemleri ve güvenlik değerlendirmelerini paylaşarak şeffaflığı artırmayı amaçlıyor. Ancak xAI bu konuda sessizliğini koruyor.

Elon Musk, yapay zekanın insanlık için ciddi riskler taşıyabileceği konusunda sıkça uyarıda bulunuyor. Ancak xAI’ın güvenlik uygulamaları, Musk’ın söylemleriyle çelişiyor. Şirketin güvenlik danışmanı Dan Hendrycks, Grok 4 için “tehlikeli yetenek değerlendirmeleri” yapıldığını iddia etse de bu sonuçlar kamuoyuyla paylaşılmadı. Bağımsız araştırmacı Steven Adler, “AI endüstrisinde standart güvenlik uygulamalarına uyulmaması endişe verici. Kamuoyu, bu güçlü sistemlerin risklerinin nasıl yönetildiğini bilmeli” diyerek xAI’ı eleştirdi.

xAI’ın tartışmalı güvenlik politikaları, yapay zeka için yasal düzenlemelerin gerekliliğini gündeme getirdi. Kaliforniya Eyalet Senatörü Scott Wiener’in önerdiği yasa tasarısı, xAI gibi önde gelen yapay zeka laboratuvarlarını güvenlik raporları yayınlamaya zorlamayı hedefliyor. New York Valisi Kathy Hochul da benzer bir yasayı değerlendiriyor. Uzmanlar, bu tür düzenlemelerin şeffaflığı artırarak riskleri azaltabileceğini savunuyor.

Grok’un antisemitik söylemleri ve “beyaz soykırım” gibi tartışmalı ifadeleri, sosyal medyada hızla yayıldı. Bu skandallar, xAI’ın Tesla araçlarında ve Pentagon gibi kurumsal müşterilere yönelik yapay zeka çözümlerindeki güvenilirliğini zedeliyor. Uzmanlar, güvenlik ve hizalama testlerinin yalnızca büyük çaplı riskleri önlemekle kalmayıp, aynı zamanda ürünlerin günlük kullanımındaki sorunları da çözebileceğini belirtiyor. Ancak Grok’un hataları, xAI’ın OpenAI ve Google’ı geride bırakan teknolojik başarılarını gölgede bırakıyor.

REKLAM ALANI
Bir Yorum Yazın

Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.