Tips voor het herkennen van GenAI

22 juni 2025

Afgelopen maanden mocht ik weer diverse workshops over Generatieve AI verzorgen bij een verscheidenheid aan organisaties. Altijd maatwerk, maar hieronder wat tips die voor iedereen nuttig zijn. De focus is op beelden.

Generatieve AI (GenAI)

Met GenAI kun je teksten, audio en beelden op maat laten genereren of bestaand materiaal manipuleren. Voor de herkenning is het handig om bij beelden onderscheid te maken tussen:

  1. Specifieke GenAI, zoals de traditionele deepfakes, waarbij het systeem bijvoorbeeld specifiek op gezichten is getraind en in een afbeelding of (live) video het gezicht kan vervangen door het gezicht van iemand anders (faceswap). Of alleen de lippen kan laten bewegen (lipsync) om de persoon op natuurlijke wijze te laten zeggen wat jij wilt. De oorspronkelijke omgeving blijft hierbij behouden, waardoor je minder aanknopingspunten hebt. De huidige detectietools zijn specifiek op het herkennen van dit soort deepfakes getraind. Maar omdat ze onvoldoende betrouwbaar zijn zul je zelf aanvullend technisch en contextueel onderzoek moeten doen (tips hieronder).
  2. Generieke GenAI, hierbij is het systeem getraind op allerlei soorten tekst, audio en video en kan het daardoor plaatjes genereren over elk onderwerp. En video en audio combineren. Je kunt aan het systeem vragen wat je wilt hebben via de prompt. Doordat ook de omgeving met AI is gemaakt, heb je meer aanknopingspunten. En omdat bij elke prompt het plaatje vanaf nul opnieuw gegenereerd wordt, is het resultaat van 2 prompts waarin een realistisch resultaat wordt gevraagd nooit exact hetzelfde.

Dit kan wel met tools als Photoshop omdat je dan een aangebrachte kras in exact dezelfde vorm kunt hergebruiken, maar deze tools zijn minder makkelijk en toegankelijk (betaalbaar) dan GenAI. Bij documenten, zoals facturen, is het handmatig manipuleren nog steeds bijna net zo makkelijk als met GenAI. Maar voor fraudeurs die geen bestaand voorbeeld hebben is GenAI een uitkomst.

Waar kun je het tegenkomen

  • Voiceberichten of telefoontjes waarbij je de stem hoort van een bekende, maar een stemkloon is gebruikt door criminelen om informatie of geld te verkrijgen;
  • Echt lijkende foto’s, video’s, facturen, post’s op sociale media, website-klonen, screenshots van bankoverschrijvingen & App-gesprekken en andersoortige documenten, gebruikt als bewijs voor iets, of om geld of informatie te verkrijgen.
  • Mensen die ergens veel kennis van lijken te hebben door wat ze publiceren of vertellen (online of aan de telefoon). Dat lukt ze door zich (live) te laten coachen door een taalmodel als ChatGPT.
  • Nep of valse produkten, zo staat Amazon vol met boeken over populaire onderwerpen, of ‘geschreven’ door populaire auteurs, terwijl ze volledig door AI gegenereerd zijn. 


Herkennen
Er zijn veel deepfake-detectietools beschikbaar op internet, zowel betaald als gratis, maar de resultaten zijn onbetrouwbaar. Een deel van de deepfake foto’s wordt niet herkend, maar erger is dat betrouwbare afbeeldingen regelmatig worden aangeduid als deepfake. Daarnaast speelt wetgeving als de AVG (en WPG) een rol, foto’s die jij (ver)krijgt kun je niet zomaar delen met onbekende derden op het internet. 

Wat echt helpt om manipulaties te leren kennen, is zelf spelen met tools als ChatGPT. Niet alleen leer je daardoor wat mogelijk is, je gaat ook herkennen waar de tools nog niet zo goed in zijn, waardoor je manipulaties sneller herkent. Onthoud dat mensen ook zonder GenAI documenten beelden of audio kunnen manipuleren!

 

Tips (let op, onderstaande zijn indicaties, geen bewijs)

  • Waar mogelijk: stel zelf veilig, als je de foto, social media post of het chatgesprek zelf bekijkt op de telefoon of computer van degene die het aandraagt, heb je meer context (is het echt een gesprek in WhatsApp of is het een gegenereerde screenshot).
  • Kijk ook naar de eigenschappen (exif / metadata) van een bestand. Metadata zie je door met je rechtermuisknop op een bestand te klikken en dan te kiezen voor Eigenschappen.
  • Helaas laat bijvoorbeeld ChatGPT geen afwijkende metadata achter in PDF, Word of Excell bestanden, wel kunnen de aanmaak- en wijzigingsdatum een aanwijzing geven, of de versiegeschiedenis.
  • Een (1) is geen. Generatieve AI maakt (genereert) beelden steeds vanaf nul, waardoor in verschillende afbeeldingen de manipulaties er verschillend uitzien. Vraag, bijvoorbeeld bij een aangifte of schademelding, om meer foto’s, genomen uit verschillende hoeken.
  • Gaat het om een omgeving buiten, dan kun je deze via Google Streetview vergelijken met de echte situatie.
  • Kijk of je de foto op internet kunt terugvinden door via Google te zoeken op afbeelding. Soms vind je dan dezelfde foto zonder manipulatie, let ook op  datum en context.
  • In formele documenten zoals facturen zitten vaak foutjes in BTW-, bankrekening- of productnummers, als deze gegenereerd zijn door het systeem (dus niet in prompt meegegeven).
  • AI is (voorlopig) slecht in natuurkundige wetten en daarom minder goed in kloppende schaduw of reflecties in ramen of plassen water, vaak zijn er in de achtergrond niet kloppende details te zien zoals lantaarnpalen die niet doorlopen, teksten die niet kloppen, of een perspectief dat niet juist is.
  • Om realistische videobeelden van een bestaand persoon te maken wordt meestal gebruik gemaakt van deepfakes; Een bestaande video of foto van de betreffende persoon wordt gemanipuleerd waardoor diegene zegt wat jij wilt (lipsync), of in een geacteerde/bestaande video wordt het gezicht vervangen door de target (zoals bij deepporn).
    De huidige kwaliteit is dermate dat je in de beelden zelf geen onvolkomenheden meer ziet.
    Technisch en Contextgericht onderzoek zijn dan noodzakelijk, zoals zoeken of dezelfde beelden elders voorkomen, of er alternatieve informatie is (Osint), zoeken of schaduwen & (weers)omstandigheden kloppen met geclaimde datum/tijdstip, kijken naar metadata en informeren in de omgeving of bij factcheckers.
  • Realistische beelden gemaakt met generieke GenAI, zoals nieuwsuitzendingen, bevatten bijna altijd niet-bestaande personages (die op een bekende kunnen lijken) met vaak iets te gave gezichten. Hierbij wordt ook de achtergrond mee gegenereerd. Let daarin op eerder genoemde fouten, en bijvoorbeeld of de achtergrond klopt met de geclaimde omgeving. Dergelijke filmpjes door generieke GenAI met bekende bestaande personen zijn nog steeds slecht en makkelijk te herkennen.
  • Als het gaat om bewakingscamerabeelden, dan is het dermate complex om deze (live) aan te passen dat dit alleen kan met een zeer professionele organisatie die over voldoende middelen beschikt, en waarbij het niet mogelijk is de camera te bewegen. Ook hier geldt een (1) is geen. Met elkaar kloppende camerabeelden vanuit een verschillend perspectief is bij mijn weten nog onmogelijk (met GenAI).

Bij live videoverbindingen gaat het tot nu toe altijd om de traditionele deepfakes. Vraag de persoon zijn camera (laptop/telefoon) in de hand te nemen en al bewegende in de ruimte rond te draaien. GenAI kan (nog) niet goed compenseren voor situaties waarin zowel de camera als de omgeving/persoon beweegt. 

Zorg ook dat je altijd zelf het initiatief neemt als het om een onomkeerbare beslissing gaat, zoals het delen van vertrouwelijke informatie of het overmaken van geld. (video)bel hen op het bij jou bekende nummer (klik het aan in je telefoonlijst) of nodig ze via het bij jou bekende emailadres uit voor een videocall. 

Het is niet gek meer als je zegt: "We weten allemaal dat gezichten en stemmen gekloond kunnen worden, dus voor ik een beslissing neem, start ik deze call even opnieuw op waarbij ik jullie uitnodig via het reguliere emailadres of telefoonnummer."

Check ook met andere bronnen, NOS, RTL en BBC hebben allemaal professionele factcheckers in dienst. Ook op https://nieuwscheckers.nl/ wordt nieuws regelmatig gecheckt.

door manonsens 27 mei 2025
Iedereen die me kent weet dat ik me druk maak over alle apps die mensen gebruiken en wat er aan data mee verzameld wordt. Ook weten jullie vast hoeveel moeite het kost om die zorg over te brengen. Het is immers zo makkelijk zo’n app en wat kunnen ze nou met die data... Heel veel, zoals we de laatste jaren in Amerika hebben gezien, en dan heb ik het niet over wijzigingen in je verzekeringspremie omdat de data die je auto over je verzamelt zonder dat je het weet gedeeld wordt. Nu ik het toch over de auto heb, eind 2024 werd bekend dat de gegevens die Volkswagen verzamelt (ook van Nederlanders) onveilig opgeslagen stonden, waaronder je persoonlijke gegevens en tot op 10cm nauwkeurig waar je wanneer was. Volgens hun voorwaarden hadden ze die sowieso kunnen delen met derden dus eigenlijk niks aan de hand. Maar weet je wat ze allemaal uit deze data (beweren te) kunnen afleiden? Volgens onderzoek van Mozilla : “Popular global brands — including BMW , Ford , Toyota , Tesla , Kia , and Subaru — can collect deeply personal data such as sexual activity, immigration status, race, facial expressions, weight, health and genetic information, and where you drive…. Brands can then share or sell this data to third parties." Waar ik me druk om maak is de impact hiervan op onze grondrechten, onze vrijheid, veiligheid en democratie. In 2023 kwam naar buiten dat een katholieke groepering data van de dating app Grindr kocht om te achterhalen welke priesters mogelijk homoseksueel zijn. Al in 2022 kwam naar buiten dat databrokers data verkochten waarmee je mensen kunt tracken die een planned parenthood of abortuskliniek bezoeken. Worden sinds zeker 2016 dergelijke data gebruikt om mensen online te targeten, nu kun je ze overal ook fysiek targeten, omdat je weet waar ze vandaan kwamen en waar ze na afloop naartoe gaan. Onderzoek van BNR toonde al aan dat hetzelfde geldt voor Nederlanders dankzij die leuke en makkelijke Apps. Dit zijn slechts enkele voorbeelden, maar ze laten zien hoe makkelijk het is geworden om andersdenkenden in beeld te krijgen, te isoleren en te targeten in welke vorm dan ook. Toen een paar weken terug bekend werd dat Musk de controle over allerlei overheidsinstanties overnam en illegaal een kopie van de gegevens van alle overheidsmedewerkers liet maken, werd ik letterlijk misselijk en moest ik denken aan hoe ons bevolkingsregister in de 2e wereldoorlog misbruikt werd. Voor sommigen lijkt dit misschien extreem, maar ik volg de ontwikkelingen van (online) targeting, uitsluiting en discriminatie al veel langer, dat ik werk bij de politie komt omdat ik echt geloof in de waarden van onze rechtstaat. Lang snapte ik niet waarom, naast gericht targeten, het ook ging om simpelweg kapot maken. De Russen waren heel transparant over hun informatie oorlog; “what it basically means is to change the perception of reality of every American to such an extent that despite the abundance of information, no-one is able to come to sensible conclusions in the interest of defending themselves, their families, their community and their country.” Overgelopen KGB-officier Yuri Bezmenov in 1984 Maar waarom dit ook vanuit het westen gebeurde, waar we het zo goed hebben? Het kwartje viel toen ik de documentaire zag met Trump-fluisteraar Steve Bannon; het doel is echt om het bestaande compleet te vernietigen, omdat je zo de door hen gewenste samenleving vanuit het niets kunt opbouwen. Na het bevel om mensen met een niet hetero geaardheid te ontslaan kwam ook de oproep om elkaar vooral te verlinken, anders kon je een negatieve beoordeling krijgen. Dat nu ook alle personeelsgegevens in handen zijn van iemand die duidelijk op heksenjacht is, is niet gewoon zorgelijk, maar fundamenteel gevaarlijk. Zeker nu blijkt dat er ook banden zijn met Peter Thiel, een van de grootste ondernemers op het gebied van data analyse en iemand die zich duidelijk uitspreekt tegen de democratie. Het is zo simpel, combineer de gegevens uit voertuigen met die van overheidsmedewerkers en je kunt ze indelen in groepjes waar je tegen bent. Misschien dat velen nog steeds denken dat het hen niet aangaat, dat dit om Amerika gaat of dat jij niet in zo’n groep valt. Allereerst is het goed te weten dat er ook in Europa en Nederland mensen zijn die dit gedachtengoed ondersteunen. En dat, ondanks dat we met Europese regelgeving veel beter beschermd zijn, er toch ook veel informatie over jou beschikbaar is bij de datahandelaren en in onveilige (Amerikaanse) cloudomgevingen. Weet jij wat er gebeurt met de data die jouw Samsung, LG of andere 'slimme' televisie verzamelt? Welke conclusies ze daaruit trekken over jouw zijn en met wie ze dit delen? Bij gebruik geef je nagenoeg altijd goedkeuring op voorwaarden waarin staat dit mag: “analyzing the use and effectiveness of [their] services,” and “developing [their] business and marketing strategies.” En “their” staat dan voor elk andere organisatie waar zij een link mee (willen) hebben... En mocht je denken “gelukkig, ik zit niet in hun doelgroep”. Weet dan dat je altijd wel in iemands doelgroep zit , en dat deze mensen blind vertrouwen op AI en data, ook als er geen wetenschappelijke onderbouwing is. Jij weet niet waarom jouw auto een conclusie trekt over jouw sexuele geaardheid. Maar voor hen wordt dat de waarheid! Wat ik eigenlijk wil zeggen: Stem bewust bij verkiezingen Wees je bewust dat gemak een hoge prijs heeft. Jij kunt nu niet overzien welke conclusies die slimme apparaten, apps en platformen trekken over jouw mentale gezondheid, sexuele geaardheid en meer. En al helemaal niet wat de consequenties hiervan zijn voor jou persoonlijk, je dierbaren en onze samenleving. (Europese) overheden horen niet thuis op dergelijke platformen Het lijkt alsof de meeste overheidsorganisaties nog steeds als uitgangpunt hanteren dat daar waar veel Nederlanders zitten, ook zij aanwezig moeten zijn. Maar met je aanwezigheid steun je impliciet het platform, je accepteert het als ruimte binnen de Nederlandse samenleving waar je een rol wilt hebben, je associeert je ermee. Dat terwijl je de veiligheid er niet kunt waarborgen, je geen idee hebt wie met welke informatie/gesprekken kan meekijken, wat er met de data van/over mensen gebeurt en wat dit betekent voor de profielen die over mensen samengesteld worden... Is het bijvoorbeeld wel verantwoord dat de AIVD haar vacatures deelt op LinkedIn waardoor bijvoorbeeld Amerikanen precies kunnen weten wie (interesse heeft in) solliciteren bij de AIVD?  Met onze aanwezigheid op platformen, helpen wij hen met het verzamelen van meer data over mensen in onze samenleving. Het plaatje hieronder laat als voorbeeld zien welke conclusies men denkt te kunnen trekken op basis van informatie uit je ogen. Dit kan niet alleen met een VR-bril, ook via de webcam. En we vinden dergelijke technologie niet alleen online, maar ook offline in bijvoorbeeld voertuigen .