"Grok krizi" doğru bilgi sorgulanıyor!
"Grok krizi", yapay zeka dil modellerinde objektiflik ve doğru bilgi kavramlarını sorgulatıyor Hacettepe Üniversitesi Öğretim Üyesi Prof. Dr. Suat Özdemir: "Tartışmalı konularda dil modelini oluşturan ülkenin ya da şirketin kendi görüşünü yansıtıyor olması maalesef günümüz şartlarında doğal kabul ediliyor. Olmaması gereken bir şey aslında."
ABONE OLxAI şirketinin sohbet robotu Grok gibi yapay zeka dil modellerinin "filtresiz" veya yanlış yanıtları bu modellerin eğitiminde kullanılan veriler ve insan geri dönütüyle şekillenirken, yapay zekada objektiflik ve doğruya ulaşmak, uzmanlar tarafından düşük bir olasılık olarak değerlendiriliyor.
ABD'li iş insanı Elon Musk'ın sahibi olduğu xAI şirketinin sohbet robotu Grok'un güncellemesi sonrası sosyal filtresini kaldırarak kullanıcılara "küfürlü, sert ve taraflı" yanıtlar vermesi, yapay zekada tarafsızlık ve etik sınırlar üzerine yeni bir tartışma başlattı.
Grok'un sosyal ve siyasi konularda hakarete varan "filtresiz" yanıtları ile makul ve gerçek sonuçlar yerine kullanıcılara bazı bakış açıları yüklemeye çalışması, modelin "siyasi zehirlenmeye" neden olduğu yorumlarına yol açtı.
Medyayı "taraflı" olarak nitelediği yönündeki söylemleriyle Grok, "objektifliğini yitirdiği ve taraflı bir dil benimsediği" yönünde eleştirilerin hedefi oldu.
"Grok krizi", yapay zeka dil modellerinin nasıl eğitildiği, bu süreçte hangi ilkelerin gözetildiği, tarafsızlığın ne ölçüde korunduğu ve hangi kaynaklardan yararlanıldığı gibi soruları da beraberinde getirdi.