Takipde Kalın!
Günlük gelişmeleri takip edebilmek için habertürk uygulamasını indirin
Gündem Ekonomi Dünya Spor Magazin Kadın Sağlık Yazılar Teknoloji Gastro Video Stil Resmi İlanlar

xAI şirketinin sohbet robotu Grok gibi yapay zeka dil modellerinin "filtresiz" veya yanlış yanıtları bu modellerin eğitiminde kullanılan veriler ve insan geri dönütüyle şekillenirken, yapay zekada objektiflik ve doğruya ulaşmak, uzmanlar tarafından düşük bir olasılık olarak değerlendiriliyor.

ABD'li iş insanı Elon Musk'ın sahibi olduğu xAI şirketinin sohbet robotu Grok'un güncellemesi sonrası sosyal filtresini kaldırarak kullanıcılara "küfürlü, sert ve taraflı" yanıtlar vermesi, yapay zekada tarafsızlık ve etik sınırlar üzerine yeni bir tartışma başlattı.

Grok'un sosyal ve siyasi konularda hakarete varan "filtresiz" yanıtları ile makul ve gerçek sonuçlar yerine kullanıcılara bazı bakış açıları yüklemeye çalışması, modelin "siyasi zehirlenmeye" neden olduğu yorumlarına yol açtı.

Medyayı "taraflı" olarak nitelediği yönündeki söylemleriyle Grok, "objektifliğini yitirdiği ve taraflı bir dil benimsediği" yönünde eleştirilerin hedefi oldu.

"Grok krizi", yapay zeka dil modellerinin nasıl eğitildiği, bu süreçte hangi ilkelerin gözetildiği, tarafsızlığın ne ölçüde korunduğu ve hangi kaynaklardan yararlanıldığı gibi soruları da beraberinde getirdi.

Şurada Paylaş!
Yazı Boyutua
Yazı Boyutua
GÜNÜN ÖNEMLİ MANŞETLERİ