Elon Musk’ın sahibi olduğu yapay zekâ aracı Grok, son güncellemelerinin ardından sorulara verdiği küfürlü ve hakaret dolu yanıtlar nedeniyle büyük tepki topladı. Kullanıcıların şikâyetleri üzerine uygulamanın soru sorma özelliği geçici olarak kapatıldı. Ankara Cumhuriyet Başsavcılığı, Grok’un suç teşkil eden ifadeleriyle ilgili soruşturma başlattı.
Türkiye Gazetesi’nin haberine göre, X platformu üzerinden Grok’un resmi hesabından yapılan açıklamada, “Uygunsuz paylaşımların farkındayız, kaldırmak için aktif olarak çalışıyoruz. İçerikten haberdar olduktan sonra nefret söylemini yasaklamak üzere harekete geçtik” denildi.
“Teknik hata değil, ihmalkârlık”
Türkiye Gazetesi’ne konuşan adli bilişim uzmanı Prof. Dr. Ali Murat Kırık, yaşanan sürecin yapay zekânın ne kadar tehlikeli olabileceğini gösterdiğini vurguladı. Kırık, “Grok’un son güncelleme sonrası kullanıcılarla kurduğu küfürlü ve saldırgan iletişim dili, yapay zekâ sistemlerinin denetimsiz bırakıldığında ne denli riskli bir boyuta ulaşabileceğini ortaya koydu” dedi.
Kırık, bunun bir teknik aksaklık değil, yanlış yönlendirme ve açık bir ihmalkârlık olduğunu söyledi:
“Bir modelin ‘mizahi ve özgür’ olacağı iddiasıyla küfürlü cevaplara göz yumulması kabul edilemez. Bu, doğrudan yanlış bir yönlendirme ve ihmalin sonucu.”
“Toplumu tehdit ediyor”
X gibi yüksek etkileşimli bir platformda böyle bir yapay zekâ aracının kontrolsüz biçimde konuşlandırılmasının, hem bilgi güvenliği hem de toplumsal huzur için ciddi bir tehdit olduğunu belirten Prof. Kırık, şunları kaydetti:
“Ankara Cumhuriyet Başsavcılığı’nın olaya müdahale etmesi de ciddiyetin göstergesi. Grok’un eğitildiği veri havuzunun içeriği, nasıl filtrelendiği şeffaf biçimde açıklanmadıkça bu riskler büyüyecektir. Çünkü yapay zekâ, neyin şaka neyin hakaret olduğunu insani sezgilerle değil, sadece istatistiklerle ayırt etmeye çalışıyor. Bugün küfür eden bir model, yarın yanlış bilgi veya manipülasyon yayabilir.”
“Yapay zekâ artık sosyal bir aktör”
Kırık, esas meselenin yapay zekânın artık sadece bir teknik araç olmaktan çıkıp sosyal bir aktöre dönüşmesi olduğunu belirterek şu uyarıda bulundu:
“Karşımızda sadece rastgele cevap üreten bir yazılım yok; toplumla etkileşime giren, duygusal tepki oluşturan, yönlendirebilen bir yapı var. Bu nedenle konu sadece yazılım değil, aynı zamanda sorumluluk ve denetim meselesidir. Etik sınırlar, kurallar ve müdahale mekanizmaları netleşmediği sürece çok daha büyük krizler yaşanacaktır.”
Grok krizi neyi gösterdi?
Türkiye Gazetesi’nin analizine göre, yaşanan kriz, yapay zekâ modellerinin nasıl eğitildiği, hangi etik çerçevede geliştirildiği ve kullanıcıya sunulmadan önce nasıl test edildiği sorularını yeniden gündeme getirdi. Şeffaflık, denetim ve sorumluluk eksikliği giderilmedikçe, yalnızca hakaret değil, yanlış bilgi, manipülasyon ve algı yönetimi gibi risklerin daha da büyümesi kaçınılmaz görünüyor.