Hoe mijn gezicht en stem werden gekloond
Wat zou jij doen als je gebeld wordt door een bekende die je vertelt dat er een deepfake rondgaat van je? Dit overkwam mij exact twee jaar geleden. Op Instagram ging een video rond van mij waarin ik reclame maak voor een online casino. Een illegaal online casino. Waar je wel geld kunt storten, maar je jouw ‘winst’ nooit uit kunt laten betalen. Ja, dat heb ik geprobeerd.
Het was in de tijd dat ik bij RTL Nieuws en RTL Z werkte. De makers van deze video hadden een reportage van mij gebruikt, o ironie, waarin ik het had over kunstmatige intelligentie. En in plaats van de originele tekst, lieten ze mij een gokspelletje aanprijzen waarin iemand veel geld wint. Een tekst die ik nooit zou uitspreken. Bovendien sprak ik in de video Tagalog, de meest voorkomende taal op de Filipijnen.
Natuurlijk wilde ik weten wie er achter deze deepfake zat. En waarom gebruikten zij mijn gezicht en stem? Ja, ik ben met enige regelmaat te zien op tv, te horen op de radio. Maar een BN’er? Nee. Het bleek dat meer verslaggevers en presentatoren slachtoffer waren van dezelfde groep die ook van hen vergelijkbare deepfake video’s hadden gemaakt. En om die geloofwaardiger te maken, gebruikten ze waarschijnlijk onze stemmen en gezichten en de logo’s van de nieuwsmedia waar wij voor werkten. Pijnlijk? Voor mij niet. Maar wat als ze mij heel andere dingen hadden laten zeggen?
Of laten doen? Zoals alle bekende en minder bekende mensen van wie deepfake pornografisch materiaal wordt gemaakt en verspreid. Of de deepfakes van Monica Geuze en Arie Boomsma, die op TikTok allerlei onzinmiddelen aan lijken te prijzen. Het is een probleem dat gelukkig ook op de politieke agenda staat.
Want naarmate generatieve AI-tools krachtiger worden, neemt het risico toe dat onze identiteit gekloond kan worden. Zelfs als je geen publiek figuur bent. Zodra je stem en beeltenis online staan, kan het gekopieerd worden. Gemanipuleerd en gebruikt op manieren waar je geen toestemming voor hebt gegeven. Of waarschijnlijk ook nooit gaat geven. En dat brengt ernstige privacy- en veiligheidsrisico’s met zich mee.
Het is een van mijn belangrijkste punten in de presentaties die ik veel geef. Over wat cybercriminelen en andere kwaadwillenden allemaal kunnen dankzij kunstmatige intelligentie. Want deepfakes worden heel vaak kwaadaardig ingezet. Met maar een paar seconden beeld en geluid, kan ik iemand laten zeggen wat ik wil. Iemands identiteit vervalsen. En daar schrikken veel mensen van. Dat is goed en belangrijk. Want we moeten ons bewust zijn van deze schaduwzijde van deze technologie, die ook zo ontzettend veel mooie dingen voortbrengt.
Alleen dan kunnen we ons er goed tegen wapenen. Bijvoorbeeld door voorzichtiger te zijn bij het verifiëren van en met wie we online of telefonisch communiceren. En misschien zo nu en dan eens kritisch te kijken naar onze digitale voetafdruk. Staan er nog videobeelden of foto’s online die eigenlijk helemaal niet meer online hoeven te staan?
Ga ik erachter komen wie ‘mijn’ deepfake gemaakt heeft? Waarschijnlijk niet. Maar ik blijf zoeken. En door dit verhaal te vertellen, ook hier o ironie, kan ik mensen hopelijk wel een klein beetje hun ogen openen.
Harm Teunis
Cybersecurity Evangelist ESET Nederland/keynote speaker/podcastmaker