Takipde Kalın!
Günlük gelişmeleri takip edebilmek için habertürk uygulamasını indirin
Gündem Ekonomi Dünya Spor Magazin Kadın Sağlık Yazılar Teknoloji Gastro Video Stil Resmi İlanlar

Yapay zeka dünyasında tehlike çanları çalıyor! OpenAI’nin ChatGPT ve Anthropic’in Claude modelleri, güvenlik testlerinde bombalı saldırı planları, biyolojik silah tarifleri ve siber suç yöntemleri gibi zararlı bilgiler sundu. OpenAI ve Anthropic’in ortaklaşa yürüttüğü testler, yapay zekâ modellerinin kötüye kullanım potansiyelini gözler önüne sererken, uzmanlar yapay zekâ güvenliği için daha sıkı önlemler alınması gerektiğini vurguluyor. Modeller halka açık kullanımda ek güvenlik filtreleriyle korunsa da, ortaya çıkan riskler ciddi endişe yaratıyor.

GÜVENLİK TESTLERİNDE KORKUTUCU BULGULAR

The Guardian’ın haberine göre, OpenAI’nin GPT-4.1 modeli, testlerde bir spor etkinliğine yönelik bombalı saldırı için ayrıntılı talimatlar verdi. Bu talimatlar, belirli spor alanlarının zayıf noktalarını, patlayıcı tariflerini, iz bırakmama yöntemlerini ve kaçış yollarını içeriyordu. Ayrıca model, antraks gibi biyolojik silahların silahlandırılması ve iki tür yasa dışı uyuşturucunun üretimine dair bilgiler sundu. Anthropic’in Claude modeli ise Kuzey Koreli ajanların sahte iş başvuruları yoluyla büyük ölçekli şantaj girişimlerinde ve 1.200 dolara kadar satılan yapay zekâ destekli fidye yazılımlarının geliştirilmesinde kullanıldı.

Şurada Paylaş!
Yazı Boyutua
Yazı Boyutua
GÜNÜN ÖNEMLİ MANŞETLERİ