Habertürk
    Takipde Kalın!
      Günlük gelişmeleri takip edebilmek için habertürk uygulamasını indirin
        Sesli Dinle
        0:00 / 0:00

        Ünlü oyuncu Bruce Willis, geçtiğimiz günlerde önemli bir bilgilendirme yapmıştı.

        Konuşma, anlama, okuma ve yazma yeteneklerini etkileyen “afazi” hastalığına yakalandığını ve oyunculuğu bıraktığını duyurmuştu.

        Bu açıklamanın hemen peşinden, Willis’in yüzünün haklarını bir “deepfake” şirketi olan Deepcake’e sattığı haberleri çıkmıştı.

        Willis’in sözcüsü bu haberleri sonradan yalanlamıştı, fakat oyuncunun yüzünün kullanıldığı bir deepfake videosu sosyal medyada büyük ses getirmişti.

        *

        Bu aslında bizlere yeni bir uyarıydı.

        İnternette gördüklerimizin gerçekliğini bir kez daha sorgulamamız için önemli bir mesaj daha veriliyordu.

        İnternetin son yıllardaki yeni başbelası olduğunun ve karanlık yüzünün hatırlatılmasıydı.

        Birkaç senedir hayatımıza giren “deepfake” yani Türkçe’ye “derinsahte” diye çevrilen bu teknoloji, ciddi potansiyel tehlikeler içerdiğini daha ilk günden haykırıyordu aslında.

        *

        Quando’dan İrem Denli’nin derlediği habere göre, deepfake sistemi, büyük veri kümeleri verildiğinde sorunları nasıl çözeceğini kendi kendine öğrenebilen derin öğrenme algoritmaları, tıpkı Willis örneğindeki gibi gerçekçi görünen sahte medya oluşturmak amacıyla video ve dijital içeriklerdeki yüzleri değiştirmek için kullanılıyor.

        Ancak, deepfake teknolojisi sadece videoyu kapsamıyor.

        Bu işin bir de videolardan çok daha gerçekçi bir “ses” tarafı var.

        Ses klonlama veya sentetik ses olarak da bilinen “deepfake voice, bir kişinin sesini yapay zeka ile kolayca taklit edebiliyor.

        Deepfake videoların gerçek olup olmadığını anlamak biraz dikkatle görece kolayken, deepfake seslerin gerçekliği hakkında bir sonuca varmak çok daha zor oluyor.

        *

        İnsanların ses ve görüntülerinin taklit edilmesi, doğal olarak pek çok olumsuzluğu beraberinde getiriyor.

        Kişileri maddi ve manevi olarak dolandırmaktan tutun da, özellikle de ünlüleri küçük düşürmeye kadar pek çok alanda kullanılıyor.

        Porno yıldızlarının yüzlerini Hollywood ünlüleriyle değiştirdiklerini ve sonrasında sistemin popülerlik kazandığı hala hafızamızda.

        Dolandırıcılar, artık bir kuruluşun çalışanlarını e-posta yoluyla para transfer etmeye ikna etmektense, şirketin CFO’sunun veya CEO’sunun sesini taklit ettikleri bir telefon görüşmesiyle işlerini daha basitçe görebiliyorlar.

        Bu yöntemle şantaj yapmak da kolay.

        Deepfake teknolojisi ile manipüle edilen medya dosyalarına aktarılan yüzler ve seslerle, kişilerin yapmadıkları şeyleri yapmış veya söylemedikleri şeyleri söylemiş gibi gösterilmesi mümkün.

        Tabii işin bir de sahte habercilik boyutu var.

        Gerçek olayları tasvir eden ve gerçek insanların asla yapmadıkları şeyleri içeren deepfake videolar, bu yalan haberlerin inanılırlığını güçlendirebiliyorlar.

        *

        Peki, bu teknolojinin hiç mi iyi yanı yok?

        Uzmanlara göre, eğlence endüstrisi, oyun endüstrisi ve eğitim sektörü buradan yararlanabilir.

        Mesela, artık aramızda olmayan oyuncular yeni filmlerde izlenebilir, yıllar önce hayatını kaybetmiş efsane şarkıcıların sesinden yeni şarkılar dinlenebilir, oyunlarda kendi avatarlarını yaratanlar onların mimiklerini ve ağız hareketlerini kontrol edebilir, eğitimciler de dersleri geleneksel formatın ötesine taşıyarak, onların daha ilgi çekici olmasını sağlayabilir, örneğin tarihsel figürler ders sürecine katılabilir.

        *

        Tabii ki, her alanda olduğu gibi, burada da teknolojiye bakış açısı ve niyet önemli.

        Yeniliği olumlu tarafından ele alanlar, onu faydalı işlerde kullanmaya çalışırken, art niyetliler ise her türlü şeytanlık için bir fırsat haline getiriyorlar.

        Siz yine dikkatli olun, internette her gördüğünüze hemen inanmayın, kanmayın, tedbiri asla elden bırakmayın.

        Diğer Yazılar