AI arama araçlarında alıntı ve halüsinasyon krizi!
Columbia Üniversitesi Tow Center for Digital Journalism birimi tarafından Mart 2025'te yayınlanan kapsamlı araştırma, ChatGPT Search, Perplexity, Grok-3 gibi sekiz önde gelen yapay zeka tabanlı generatif arama aracının haber içeriklerini doğru atıf yapma konusunda sistematik başarısızlık gösterdiğini ortaya koydu. 20 haber yayıncısından seçilen 200 makaleden alınan alıntılarla gerçekleştirilen 1600 sorguda, araçlar genel olarak yüzde 60'ın üzerinde yanlış veya eksik yanıt verdi. Premium modeller daha yüksek güvenle ama daha fazla hatalı bilgi sunarken, bazı araçlar robots.txt engellerini aşarak bloke edilmiş içeriklere bile erişebildi. Lisans anlaşmaları dahi doğru atıf ve kaynak göstermeyi garanti etmiyor; bu durum haber yayıncılarının trafiğini kesiyor, kullanıcıları yanlış bilgiye maruz bırakıyor ve bilgi ekosisteminde ciddi güven sorunu yaratıyor.
ABONE OLYapay zeka teknolojileri son yıllarda olağanüstü bir hızla hayatımıza girerken, bu gelişim yeterince denetlenmediğinde bilgi ekosistemini derinden sarsıyor.
Özellikle üretken yapay zeka arama araçları, kullanıcılara hızlı ve akıcı yanıtlar verse de, haber içeriklerinde kaynakları doğru göstermeme, orijinal yayıncılara trafik sağlamama ve hatta engellenmiş içeriklere bile erişme gibi sistematik sorunlar ortaya çıkartıyor. Columbia Üniversitesi Tow Center for Digital Journalism’ın yayımladığı araştırmada, ChatGPT Search, Perplexity, Grok-3 gibi sekiz popüler aracı 1600 sorguyla test edildi.
Sonuçlar oldukça dikkat çekici oldu. Genel hata oranı yüzde 60’ın üzerinde, premium modeller daha iddialı ama daha yanlış yanıtlar veriyor, robots.txt engelleri aşılıyor ve lisans anlaşmaları bile doğru atıf garantisi sağlamıyor. Bu durum hem kullanıcıları yanıltıcı bilgiye maruz bırakıyor hem de haber yayıncılığının geleceğini tehdit ediyor. Yapay zekanın muazzam potansiyeli, ancak şeffaf kurallar, zorunlu kaynak gösterme ve güçlü denetim mekanizmalarıyla sürdürülebilir hale gelebilir.
Yapay zeka modelleri kısa sürede metin yazmaktan gerçek zamanlı aramaya kadar geniş bir yelpazeye ulaştı. Ancak bu hız, genellikle yetersiz test, aceleci geliştirme ve etik denetim eksikliğiyle ilerledi. Üretken yapay zekalı arama araçları internetteki içeriği tarayıp özetleyerek kullanıcıya doğrudan bilgi sunmayı hedeflerken, bu süreçte orijinal haber kaynaklarının emeğini hiçe sayan bir yapı ortaya çıktı. Yayıncılar, içeriklerinin AI tarafından yeniden paketlenip kaynak gösterilmeden kullanıldığını, web trafiğinin kesildiğini ve gelir kaybettiklerini vurguluyor. Tow Center’ın yeni çalışması, sorunun artık tek bir modele özgü olmadığını, tüm büyük generatif arama araçlarında yapısal bir sorun olduğunu kanıtlıyor.