Kaikista pelottavista Internetin ominaisuuksista se, että kyky huijata pahaa ajattelevat, saattaa olla pelottava. Clickbait, valokuvasuositetut kuvat ja vääriä uutisia ovat pahimpia rikoksentekijöitä, mutta viime vuosina on myös esiintynyt uuden potentiaalisesti vaarallisen työkalun, joka tunnetaan syvän fake-tekoälyn (AI), nousua.
Termi "syväfake" tarkoittaa väärennettyä, tietokoneella tuotettua videota ja ääntä, jota on vaikea erottaa aidosta, muuttamattomasta sisällöstä. Se on kuvata mitä Photoshop on kuville.
Kuinka deepfake AI toimii?
Työkalu luottaa siihen, mitä kutsutaan generatiivisiksi kilpailuverkoiksi (GAN), tekniikka, jonka keksi vuonna 2014 tohtori Ian Goodfellow. opiskelija, joka työskentelee nyt Applessa, Popular Mechanics kertoi.
GAN-algoritmiin kuuluu kaksi erillistä AI: tä, joista toinen tuottaa sisältöä - sanotaan esimerkiksi ihmisten valokuvia - ja vastustaja, joka yrittää arvata, ovatko kuvat oikeita vai vääriä, Voxin mukaan. AI: n luominen alkaa melkein ilman aavistustakaan siitä, miltä ihmiset näyttävät, eli kumppaninsa voi helposti erottaa todelliset valokuvat vääristä. Mutta ajan myötä jokainen tyyppi AI paranee asteittain, ja lopulta tuottava AI alkaa tuottaa sisältöä, joka näyttää täydelliseltä elämältä.
Deepfake esimerkkejä
GAN-laitteet ovat vaikuttavia työkaluja, eikä niitä aina käytetä haitallisiin tarkoituksiin. Vuonna 2018 GAN: n tuottama maalaus, joka jäljitteli taiteilijoiden hollantilaista "Old Master" -tyyliä, kuten 1600-luvun Rembrandt van Rijn, myytiin Christien huutokauppatalossa uskomattoman 432 500 dollarilla.
Samana vuonna deepfakes nousi laajalle esille, pääasiassa Reddit-käyttäjän kautta, joka meni nimellä "deepfakes", Vice raportoi. GAN-tekniikkaa käytettiin usein sijoittamaan kuuluisten kuuluisuuksien - mukaan lukien Gal Gadot, Maisie Williams ja Taylor Swift - kasvot pornografisten elokuvien näyttelijöiden vartaloihin.
Muut GAN: t ovat oppineet ottamaan yhden kuvan henkilöstä ja luomaan melko realistisia vaihtoehtoisia valokuvia tai videoita henkilöstä. Vuonna 2019 syväfake voisi tuottaa kammottavia, mutta realistisia elokuvia Mona Lisasta, joka puhuu, liikkuu ja hymyilee eri paikoissa.
Syvävälit voivat myös muuttaa äänisisältöä. Kuten The Verge kertoi aiemmin tänä vuonna, tekniikka voi jakaa uudet sanat puhuvan henkilön videoon, jolloin näyttää siltä, että he sanoivat jotain mitä eivät koskaan halunneet.
Uuden työkalun käyttöönoton helppoudella on potentiaalisesti pelottavia seurauksia. Jos kuka tahansa missä tahansa voi tehdä realistisia elokuvia, joissa näkyy julkkis tai poliitikko puhuvan, liikuttavan ja sanovan sanoja, joita he eivät koskaan sanoneet, katsojien on pakko olla varovaisempi Internetin sisällön suhteen. Kuuntele esimerkiksi presidentti Obaman varoitusta "suojella" dystopiaa tulevaisuudesta tässä Buzzfeedin videossa, joka on luotu elokuvantekijä Jordan Peelen syväfaksilla.