OpenAI tarafından geliştirilen GPT o3 ve o4-mini modelleri, insan düşünme biçimini taklit etmek üzere tasarlandı. Ancak yeni testler, bu modellerin daha fazla yanlış bilgi ürettiğini gösterdi.

GPT o3 ve o4-mini modellerinde halüsinasyon oranı arttı

Yapılan kamu figürleri testinde GPT o3, yanıtlarının %33’ünde yanlış bilgi verdi. Daha kompakt olan o4-mini modeli ise bu oranın %48’e kadar çıktığı gözlemlendi. Önceki versiyonlara göre artış dikkat çekici.

Yeni düşünme yöntemi hata riskini artırıyor

Yeni modeller, adım adım muhakeme özelliğiyle geliştirildi. Ancak bu teknik, yapay zekanın karmaşık kavramlar arasında hatalı bağlantılar kurmasına neden olabiliyor. Yüksek güvenli cevaplar yerine daha anlatımcı fakat hatalı sonuçlar ortaya çıkıyor.

Halüsinasyonların gerçek dünyada etkisi büyük

Yapay zekanın hukuki, tıbbi ve kamusal alandaki kullanımları artarken, üretilen yanlış bilgilerin sonuçları da ağır olabiliyor. ChatGPT tabanlı sistemlerin neden olduğu bazı hatalar, kullanıcıların cezai yaptırımlarla karşı karşıya kalmasına yol açtı.

Modeller gelişiyor ama güven azalıyor

OpenAI’ye göre halüsinasyonların artışı, doğrudan düşünme biçiminden çok, anlatım zenginliği ve içerik üretimindeki cesaretten kaynaklanıyor. Sistem, kapsamlı olmaya çalışırken tahminleri gerçek gibi sunabiliyor.