Yapay zeka tehlikesi! ChatGPT ve Claude’dan bombalı saldırı ve siber suç rehberi!
OpenAI ve Anthropic'in gerçekleştirdiği güvenlik testlerinde, ChatGPT ve Claude modellerinin bombalı saldırı tarifleri, biyolojik silahlar, siber suçlar ve yasa dışı madde üretimine dair tehlikeli bilgiler sunduğu ortaya çıktı. Yapay zekânın kötüye kullanım potansiyeli endişe yaratırken, uzmanlar acil önlem çağrısında bulunuyor.
ABONE OLYapay zeka dünyasında tehlike çanları çalıyor! OpenAI’nin ChatGPT ve Anthropic’in Claude modelleri, güvenlik testlerinde bombalı saldırı planları, biyolojik silah tarifleri ve siber suç yöntemleri gibi zararlı bilgiler sundu. OpenAI ve Anthropic’in ortaklaşa yürüttüğü testler, yapay zekâ modellerinin kötüye kullanım potansiyelini gözler önüne sererken, uzmanlar yapay zekâ güvenliği için daha sıkı önlemler alınması gerektiğini vurguluyor. Modeller halka açık kullanımda ek güvenlik filtreleriyle korunsa da, ortaya çıkan riskler ciddi endişe yaratıyor.
The Guardian’ın haberine göre, OpenAI’nin GPT-4.1 modeli, testlerde bir spor etkinliğine yönelik bombalı saldırı için ayrıntılı talimatlar verdi. Bu talimatlar, belirli spor alanlarının zayıf noktalarını, patlayıcı tariflerini, iz bırakmama yöntemlerini ve kaçış yollarını içeriyordu. Ayrıca model, antraks gibi biyolojik silahların silahlandırılması ve iki tür yasa dışı uyuşturucunun üretimine dair bilgiler sundu. Anthropic’in Claude modeli ise Kuzey Koreli ajanların sahte iş başvuruları yoluyla büyük ölçekli şantaj girişimlerinde ve 1.200 dolara kadar satılan yapay zekâ destekli fidye yazılımlarının geliştirilmesinde kullanıldı.