De snelle ontwikkeling van deepfake-technologie stelt wetgevers voor nieuwe uitdagingen. Naarmate het steeds eenvoudiger wordt om realistisch ogende, maar gemanipuleerde beelden te creëren, groeit de behoefte aan duidelijke regelgeving.
Over het recente wetsvoorstel
Technologische ontwikkelingen dwingen het recht constant tot een (her)beoordeling van de geschiktheid ervan in nieuwe situaties. Een ontwikkeling die steeds vaker naar voren komt, is de mogelijkheid tot het maken van deepfakes.
In de AI-verordening die vanaf 2 augustus 2026 van toepassing zal zijn, wordt een ‘deepfake’ gedefinieerd als: “Door AI gegenereerd of gemanipuleerd beeld- audio- of videomateriaal dat een gelijkenis vertoont met bestaande personen, voorwerpen, plaatsen, entiteiten of gebeurtenissen, en door een persoon ten onrechte voor authentiek of waarheidsgetrouw zou worden aangezien”.[1]
De ontwikkeling van deepfakes kunnen door sommigen worden gezien als een interessante ontwikkeling. Echter maakt de AI-technologie het ook steeds makkelijker om iemands uiterlijk en stem ongevraagd te kopiëren of te manipuleren. Zo kan er dus ook misbruik van worden gemaakt. Daardoor kunnen individuele personen geraakt worden, maar er kan ook maatschappelijke schade worden aangericht.
Daarmee wordt de wet- en regelgeving op de proef gesteld. Zijn de huidige (Nederlandse) rechtskaders toereikend genoeg om mensen effectief te beschermen tegen nieuwe vormen van misbruik in dit kader? In dit blog zal ik kort ingaan op een aantal ontwikkelingen en discussiepunten in het kader van wetgeving rondom deepfakes.
Nieuwe wetsvoorstellen
Zowel Denemarken als Nederland hebben recent wetsvoorstellen voorgelegd waarin zij nieuwe kaders geven om de problematiek rondom deepfakes aan te pakken.
Denemarken kiest een opvallende route. Het land wil bescherming van gelaatstrekken, stem en lichaam mogelijk maken door bescherming via het auteursrecht. De Deense regering heeft gesteld dat zij de bescherming tegen digitale imitaties van de identiteit van personen op die manier wil versterken. In het voorstel wordt een deepfake gedefinieerd als een zeer realistische digitale weergave van een persoon, inclusief zijn of haar uiterlijk en stem. De identiteit wordt daarmee behandeld als een beschermd object, vergelijkbaar met een werk. Door de verschijningsvorm en stem van een persoon als exclusief recht te formuleren, dient iemand eerst toestemming te vragen voordat ze het mogen gebruiken.
Nederland daarentegen introduceert geen bescherming via het auteursrecht, maar een daaraan verwant, afzonderlijk naburig recht op deepfakes van personen. Op 30 oktober 2025 is een initiatiefvoorstel verschenen.[2] Het wetsvoorstel heeft tot doel dat iedereen het recht krijgt om het vervaardigen, gebruiken en verspreiden van deepfakes van hun stem of uiterlijk toe te staan of te verbieden. Zo wordt er getracht om mensen meer zeggenschap te geven over het gebruik van hun stem of uiterlijk.
Huidig juridisch kader in Nederland
Beide voorstellen vertrekken vanuit dezelfde gedachte dat het huidige recht tekortschiet. Hoe zit dat dan nu in Nederland? Op dit moment is er een aantal mogelijkheden waarmee bescherming kan worden gezocht tegen misbruik van deepfakes. Dat kan op dit moment door middel van het portretrecht (art. 21 Auteurswet), bescherming vanuit de Algemene Verordening Gegevensbescherming (AVG) en art. 6:162 BW (inzake onrechtmatige daad). Daarnaast biedt het strafrecht ook enige grondslagen.[1]
Het portretrecht is het recht van een persoon om zich te verzetten tegen publicatie van hun portret als zij herkenbaar zijn afgebeeld en zij daarbij een redelijk belang hebben. Er dient sprake te zijn van een afbeelding van de persoon waaruit de ‘identiteit van die persoon kan blijken’ (dat kan ook een lookalike zijn[3]). Het portretrecht zou daarmee grond kunnen bieden voor bescherming tegen deepfakes. Een stem valt hier echter niet onder.[4]
Ingevolge de Algemene Verordening Gegevensbescherming kwalificeren een gezicht, stem of andere identificeerbare kenmerken als persoonsgegevens zodra een persoon direct of indirect identificeerbaar is. Het genereren, opslaan, bewerken of publiceren van een deepfake is in dat opzicht een verwerking. Het verwerken van persoonsgegevens is alleen rechtmatig wanneer een van de grondslagen van artikel 6 AVG van toepassing is, waarbij veelal ook een belangenafweging nodig is.[5] Kort gezegd: zonder duidelijke grondslag, en in de praktijk vaak zonder expliciete toestemming, zal het maken en publiceren van een (identificeerbare) deepfake in strijd zijn met de AVG.
Ook via de eerder genoemde AI-Verordening en de Digital Service Act zullen er enkele mogelijkheden zijn om de strijd tegen deepfakes aan te gaan.[2]
Discussie
In de literatuur wordt er verschillend gedacht over het Nederlandse wetsvoorstel en het nut of de noodzaak daarvan in huidig juridisch kader. Een veelgehoord argument tegen het wetsvoorstel is dat het huidige juridisch kader reeds voldoende grondslag biedt om misbruik van de deepfakes tegen te kunnen gaan. Het probleem zou bij de handhaving liggen. Daarnaast wordt er door sommigen op gewezen dat een afzonderlijk deepfake-recht problematisch kan zijn wanneer het overdraagbaar wordt gemaakt. Als het recht als vermogensrecht kwalificeert, kan het worden overgedragen of kan er bijvoorbeeld een licentie op worden uitgegeven. De nadruk zou dan verschuiven van bescherming van de persoon naar commerciële exploitatie: de persoon van iemand krijgt het karakter van een verhandelbaar object. Zo zijn er zorgen dat er misbruik van een dergelijk verdienmodel zou kunnen worden gemaakt.[2]
Daarentegen is er ook het andere geluid, namelijk dat het portretrecht een zwak recht is dat doorgaans een belangenafweging vereist en dat de algemene verordening gegevensbescherming betrokkenen in beginsel sterke materiële rechten geeft, maar dat die vooral achteraf en procedureel werken. Ook het strafrecht grijpt pas in nadat schade is ontstaan. Een absoluut recht zoals dat is opgenomen in het huidige wetsvoorstel biedt dan mogelijk een uitkomst. Een exclusief recht maakt snel proactief handelen mogelijk en legt verantwoordelijkheid bij platforms.[6]
Toekomst
In de literatuur is er naar aanleiding van de problematiek rondom deepfakes en het nieuwe wetsvoorstel dus veel discussie. Zo heeft de Europese zich recent kritisch uitgelaten over de gekozen aanpak van Denemarken, wat ook relevant zal zijn voor de benadering in Nederland. Het is in elk geval duidelijk dat het recht constant moet worden heroverwogen op zijn toepasbaarheid in dit soort situaties. De komende jaren zal vooral moeten blijken hoe deze problematiek en de potentiële nieuwe rechten zich verder zullen ontwikkelen in het kader van de deepfakes.
Wil je meer weten over deepfakes of heb je een andere vraag naar aanleiding van het bovenstaande? Neem dan contact op met een van onze gespecialiseerde advocaten uit team IE. Zij helpen u graag verder.
[1] E.R. van der Velde, ‘Deepfakes: stand van zaken en vizIER op de toekomst’, IER 2025/42.
[2] B. Hugenholtz, ‘Een naburig deepfake-recht. Echt?’, Nederlands juristenblad – 13-02-2026 – afl. 6.
[3] HR 22 april 2022, ECLI:NL:HR:2022:621, r.o. 3.1.
[4] B. Hugenholtz, ‘Een naburig deepfake-recht. Echt?’, Nederlands juristenblad – 13-02-2026 – afl. 6; HR 2 mei 2005, ECLI:NL:HR:2003:AF3416, r.o. 4.6.3.
[5] Daarnaast kan er ook sprake zijn van bijzondere persoonsgegevens, zie artikel 9 AVG.
[6] D. Visser, ‘Absoluut recht ten aanzien van deepfakes wenselijk’.




Neem contact op