Essay deepfake


989 woorden (zonder bronnen aan de onderkant)

Zien is geloven?

In december 2017 verschenen de eerste deepfake-video’s op het forum Reddit, een gebruiker plaatste gezichten van actrices op het lichaam van pornoactrices. Inmiddels kent bijna iedereen het fenomeen; grappige filmpjes van bekende mensen waarvan je zeker weet dat het niet waar kan zijn, een dansende koningin of Donald Trump afgebeeld als klein meisje. Waar de meeste video’s voor grappige doeleinden worden gebruikt, bestaan er in de donkere krochten van het internet ook deepfake-video’s die minder leuk zijn.   

Voor het maken van een pornografisch gerelateerde deepfake-video werd recentelijk een onbekende man aangehouden. Het betreft een video waarin het gezicht van presentator Welmoed Sijtsma is geplaatst op een vrouw die seksuele handelingen uitvoert. Met name vrouwelijke bekendheden worden het slachtoffer van dergelijke video’s, echter kunnen ook minder bekende vrouwen op deze manier slachtoffer worden van misbruik.

Er zijn verschillende deepfake-technologieën bekend voor het maken van deepfake-video’s, ik zal er twee toelichten. Bij de eerste vorm wordt een softwaretechnologie gebruikt aan de hand van algoritmen die machinaal leert om foto’s van twee doelonderwerpen te analyseren en over elkaar te leggen (Westerlund, 2019). Ook kan ‘Generative Adversarial Networks’ worden gebruikt. Dit bestaat uit een discriminator en een generator. De discriminator analyseert of de nieuwe inhoud legitiem is, de generator maakt de inhoud na het bestuderen van vergelijkbare video’s (Mao et al., 2020). Laatst genoemde technologie kan worden vergeleken met een crimineel die met vals geld betaalt in een winkel. Indien het geld door de winkel wordt afgewezen, zal de crimineel de vervalsing verbeteren. Voor mensen zonder technologische kennis klinken eerder benoemde technologieën wellicht ingewikkeld, echter kan een kind de was doen: je hoeft niet te programmeren om dergelijke video’s te maken. In januari 2018 is namelijk een gratis app gelanceerd die deepfake-technologie toegankelijk maakt voor leken (Jafar, 2020). De techniek is inmiddels zo ver gevorderd dat echt bijna niet meer van nep is te onderscheiden.

Uit onderzoek blijkt dat deepfake-video’s de snelst groeiende vorm van seksueel misbruik is (Berndsen, 2020). Een ander recent onderzoek door Ajder et al., (2019) toont zelfs dat 96 procent van alle deepfake-video’s pornografisch gerelateerd is. Alleen al op zoekmachine Google zijn er 66 miljoen zoekresultaten bij de zoekterm ‘deepfake-porn’ waar te nemen. Het feit dat de technologieën voor iedereen beschikbaar zijn, de video’s gemakkelijk te maken zijn en er geen strafrechtelijke stappen volgen, maakt de drempel erg laag. Hoewel er sinds 2020 een wet is aangenomen tegen het verspreiden van pornografisch beeldmateriaal zonder toestemming (Berndsen, 2020), wordt het fenomeen deepfake in het Nederlandse wetboek niet benoemd. Volgens Berndsen (2020) is het zelfs moeilijk te zeggen of het strafbaar is om pornografisch gerelateerde deepfake-video’s te maken.

Over het algemeen kan ik zeggen dat het recht niet zo snel meegroeit als de technologie, dat blijkt ook het geval te zijn bij dit fenomeen. Wetten tegen deepfake bestaan simpelweg niet. Door GroenLinks en CDA werd recent een wet voorgesteld tegen manipulatie van beelden en het strafbaar maken als dit leidt tot fictieve pornografische video’s, dit voorstel is niet aangenomen. Dit gezegd hebbende, naar mijn mening zouden er wél wetten moeten komen die van toepassing zijn bij het aanpakken van onrecht dat is begaan door iemand te misbruiken met behulp van deepfake-technologieën. Dat pornografische deepfake-video’s onwenselijk zijn en strafbaar moeten zijn, lijkt mij duidelijk. Maar mij lijkt het nóg makkelijker dat deepfake-video’s in het algemeen verboden worden. Waarom?

Allereerst kan het bestaan van deepfake-video’s een omgekeerd resultaat met zich meebrengen. Het kan namelijk dienen als een manier om de waarheid verdacht te maken. Dit zal ik toelichten aan de hand van een fictieve casus. Een 33-jarige man is opgepakt voor diefstal. Er zijn camerabeelden beschikbaar waarop de diefstal te zien is. Echter stelt de verdachte dat het geen bewijsmateriaal betreft, maar deepfake is. Door het gebruiken van deepfake-video’s kan het beeld van de werkelijkheid aan je eigen wensen worden aangepast.

Verder kan worden gesteld dat er naast de gevolgen voor direct betrokkenen ook maatschappelijke gevolgen zijn. Zo is er een afnemend vertrouwen in de rechtspraak vastgesteld door onderzoek van Walters et al., (2019). Tot op heden hebben er nog geen vervolgingen plaats gevonden voor het creëren van deepfake-video’s. Slachtoffers moeten met alle gevolgen worstelen, terwijl de verdachten ervan af komen met een simpel verhoor.

Ook neemt de geloofwaardigheid van de media af door deepfake-video’s, terwijl de zorgen over wat wél en niet echt is steeds toenemen. Zo mag voor het schrijven van een verslag op school niet meer simpelweg gebruik gemaakt worden van één bron, er moeten verschillende bronnen worden geraadpleegd om zeker te weten dat de desbetreffende informatie echt is. Voorheen leek het internet naar mijn mening een ongeëvenaarde bron van kennis. Echter blijkt het een diepe put vol leugens en bedrog. Welke video, welke stem en welke afbeelding kan ik nog wél vertrouwen? Door het doen van onderzoek naar dit onderwerp besef ik dat als ik iets zie, ik dat niet meer kan geloven.

Echter kennen eerdergenoemde punten een keerzijde. Er zijn voldoende nuttige zaken waar deepfake kan worden toegepast. Bijvoorbeeld voor psychologische- of educatieve doeleinden; nabestaanden kunnen communiceren met een overleden familielid of leerlingen kunnen spreken met belangrijke personen uit de geschiedenis. Bovendien is de vraag of handhaving en vervolging mogelijk zal zijn. De ontwikkelingen op het gebied van deepfake-technologieën zijn voor de politiek en justitie momenteel al onmogelijk bij te houden. Het internet is groot en dat maakt het vrijwel onmogelijk voor politie en justitie om hier aan de slag te gaan. Een aanpassing van wetten zal hier geen verandering in bewerkstelligen.

Deepfake-porno maakt een opmars en hoewel het in theorie ook mannen kan overkomen, zijn er in de praktijk vooral vrouwelijke slachtoffers. Hoewel er nog een lange weg te gaan is, moet deepfake-porno als misdaad worden erkend. Tot die tijd is er één ding van belang; een grondige herziening van hoe de samenleving vrouwen ziet. Wordt het niet tijd dat we dat verhaal aanpassen of veranderen, in plaats van foto’s en video’s van hen?

Referentielijst

Berndsen, M. (Michael). (2020). Een verbod op wraakporno. Nederlands Tijdschrift Voor Strafrecht, 1(2), 70–76. https://doi.org/10.5553/nts/266665532020035002003

Jafar, M. T., Ababneh, M., Al-Zoube, M., & Elhassan, A. (2020). Forensics and Analysis of Deepfake Videos. 2020 11th International Conference on Information and Communication Systems (ICICS). https://doi.org/10.1109/icics49469.2020.239493

Mao, X., & Li, Q. (2020). Generative Adversarial Networks (GANs). Generative Adversarial Networks for Image Generation, 1–7. https://doi.org/10.1007/978-981-33-6048-8_1

Walters, G. D., & Bolger, P. C. (2018). Procedural justice perceptions, legitimacy beliefs, and compliance with the law: a meta-analysis. Journal of Experimental Criminology, 15(3), 341–372. https://doi.org/10.1007/s11292-018-9338-2

Westerlund, M. (2019). The Emergence of Deepfake Technology: A Review. Technology Innovation Management Review, 9(11), 39–52. https://doi.org/10.22215/timreview/1282

https://www.mediawijsheid.nl/deepfake/

https://www.ad.nl/tech/een-filmpje-waarin-rutte-alles-zegt-wat-jij-wil-zo-worden-deepfakes-gemaakt~ad8f407c/?cb=265ecb333acf271d1eb5fa713072b064&auth_rd=1

https://www.watwat.be/sociale-media/wat-deepfake#:~:text=Deepfake%20wordt%20vaak%20gebruikt%20om,familiefoto’s%20tot%20leven%20kan%20brengen

https://theses.ubn.ru.nl/bitstream/handle/123456789/12790/Vries,%20Liz%20de%204811194-Masterscriptie.pdf?sequence=1

https://www.bnnvara.nl/joop/artikelen/deepfake-is-een-wapen-in-handen-van-de-eenling-op-zijn-zolderkamer

https://www.wodc.nl/actueel/nieuws/2022/01/05/probleem-van-deepfakes-zit-niet-in-wetgeving-maar-vooral-in-handhaving-daarvan

https://www.volkskrant.nl/nieuws-achtergrond/deepfake-porno-neemt-toe-en-is-een-vorm-van-seksueel-misbruik-maar-is-het-ook-verboden~b69fce29/