Het aantal deepfake-video's neemt elk jaar met 900 procent toe

Het aantal deepfake-video's neemt elk jaar met een percentage toe
Het aantal deepfake-video's neemt elk jaar met 900 procent toe

Volgens het World Economic Forum (WEF) neemt het aantal online deepfake-video's elk jaar met 900% toe. Verschillende opmerkelijke gevallen van deepfake-zwendel haalden de krantenkoppen, met meldingen van intimidatie, wraak en crypto-zwendel. Kaspersky-onderzoekers werpen licht op de drie belangrijkste zwendelschema's met behulp van deepfakes waar gebruikers voor moeten oppassen.

Door het gebruik van kunstmatige neurale netwerken, deep learning en dus deepfake-misleidingstechnieken kunnen gebruikers over de hele wereld hun gezicht of lichaam digitaal veranderen, waardoor realistische afbeeldingen, video- en audiomaterialen worden geproduceerd waarin iedereen op iemand anders kan lijken. Deze gemanipuleerde video's en afbeeldingen worden vaak gebruikt om verkeerde informatie en andere kwaadaardige doeleinden te verspreiden.

financiële fraude

Deepfakes kunnen het onderwerp zijn van social engineering-technieken die afbeeldingen gebruiken die door criminelen zijn gemaakt om zich voor te doen als beroemdheden om slachtoffers in hun val te lokken. Zo verspreidde vorig jaar een kunstmatig gemaakte video van Elon Musk die een hoog rendement beloofde van een dubieuze cryptocurrency-investeringsregeling zich snel, waardoor gebruikers geld verloren. Oplichters gebruiken afbeeldingen van beroemdheden om nepvideo's zoals deze te maken, oude video's aan elkaar te naaien en livestreams op sociale-mediaplatforms te lanceren, waarbij ze beloven dat ze alle cryptocurrency-betalingen die naar hen worden verzonden, zullen verdubbelen.

pornografische deepfake

Een ander gebruik voor deepfakes is het schenden van de privacy van een individu. Deepfake-video's kunnen worden gemaakt door het gezicht van een persoon op een pornografische video te plaatsen, wat grote schade en leed veroorzaakt. In één geval verschenen deepfake-video's op internet waarin de gezichten van enkele beroemdheden in expliciete scènes over de lichamen van pornografische actrices heen werden gelegd. Hierdoor wordt in dergelijke gevallen de reputatie van slachtoffers van aanslagen geschaad en worden hun rechten geschonden.

Zakelijke risico's

Vaak worden deepfakes gebruikt om bedrijven aan te vallen voor misdaden zoals afpersing van bedrijfsleiders, chantage en industriële spionage. Met behulp van een voice deepfake slaagden cybercriminelen er bijvoorbeeld in om een ​​bankdirecteur in de VAE te misleiden en 35 miljoen dollar te stelen. In dit geval was er slechts een kleine opname van de stem van zijn baas nodig om een ​​overtuigende deepfake te creëren. In een ander geval probeerden oplichters het grootste cryptocurrency-platform Binance te misleiden. Binance-manager zei "Dankjewel!" over een Zoom-bijeenkomst die hij nooit heeft bijgewoond. Hij was verrast toen hij berichten begon te ontvangen. De aanvallers wisten een deepfake te maken met openbare afbeeldingen van de beheerder en deze te implementeren door namens de beheerder te spreken in een online bijeenkomst.

FBI waarschuwt personeelsmanagers!

Over het algemeen omvatten oplichters die deepfakes gebruiken desinformatie en openbare manipulatie, chantage en spionage. Volgens een FBI-waarschuwing zijn HR-managers al alert op het gebruik van deepfakes door kandidaten die solliciteren naar werk op afstand. In de Binance-zaak gebruikten de aanvallers afbeeldingen van echte mensen van internet om deepfakes te maken en zelfs hun foto's toe te voegen aan cv's. Als ze erin slagen personeelsmanagers op deze manier te misleiden en vervolgens een aanbieding krijgen, kunnen ze vervolgens werkgeversgegevens stelen.

Deepfakes blijven een dure vorm van zwendel die een groot budget vereist en in aantal toeneemt. Uit een eerder onderzoek van Kaspersky blijkt wat de kosten zijn van deepfakes op het darknet. Als een gewone gebruiker software op internet vindt en deze probeert te deepfaken, zal het resultaat onrealistisch zijn en is frauduleus duidelijk. Weinig mensen geloven in een deepfake van lage kwaliteit. Hij kan onmiddellijk vertragingen in gezichtsuitdrukking of wazige kinvorm opmerken.

Daarom hebben cybercriminelen grote hoeveelheden gegevens nodig ter voorbereiding op een aanval. Zoals foto's, video's en stemmen van de persoon die ze willen imiteren. Verschillende hoeken, lichtsterkte, gezichtsuitdrukkingen spelen allemaal een grote rol in de uiteindelijke kwaliteit. Een up-to-date computerkracht en software is vereist om het resultaat realistisch te maken. Dit alles vereist een grote hoeveelheid middelen en slechts een klein aantal cybercriminelen heeft toegang tot deze bron. Daarom blijft deepfake nog steeds een uiterst zeldzame bedreiging, ondanks de gevaren die het met zich mee kan brengen, en slechts een klein aantal kopers kan het zich veroorloven. Als gevolg hiervan begint de prijs van een deepfake van één minuut bij $ 20.

“Soms kunnen reputatierisico’s zeer ernstige gevolgen hebben”

Dmitry Anikin, Senior Security Specialist bij Kaspersky, zegt: “Een van de ernstigste bedreigingen die deepfake voor bedrijven vormt, is niet altijd de diefstal van bedrijfsgegevens. Soms kunnen reputatierisico's zeer ernstige gevolgen hebben. Stel je een video voor waarin je manager polariserende opmerkingen maakt over (ogenschijnlijk) gevoelige onderwerpen. Voor het bedrijf zou dit kunnen leiden tot een snelle daling van de aandelenkoersen. Hoewel de risico's van een dergelijke dreiging extreem hoog zijn, is de kans om op deze manier gehackt te worden extreem klein vanwege de kosten van het maken van een deepfake en zeer weinig aanvallers kunnen een hoogwaardige deepfake maken. Wat je eraan kunt doen, is je bewust zijn van de belangrijkste kenmerken van deepfake-video's en sceptisch zijn over voicemails en video's die naar je toe komen. Zorg er ook voor dat uw medewerkers begrijpen wat een deepfake is en hoe ze deze kunnen herkennen. Tekenen zoals schokkerige bewegingen, verschuivingen in de huidskleur, vreemd knipperen of niet knipperen zijn indicatief.”

Voortdurende monitoring van darknet-bronnen biedt waardevolle inzichten in de deepfake-industrie, waardoor onderzoekers de nieuwste trends en activiteiten van bedreigingsactoren in deze ruimte kunnen volgen. Door het darknet te monitoren, kunnen onderzoekers nieuwe tools, diensten en marktplaatsen ontdekken die worden gebruikt voor het maken en verspreiden van deepfakes. Dit type monitoring is een cruciaal onderdeel van deepfake-onderzoek en helpt ons om ons inzicht in het zich ontwikkelende bedreigingslandschap te verbeteren. Kaspersky Digital Footprint Intelligence-service omvat dit type monitoring om haar klanten te helpen een stap voor te blijven als het gaat om deepfake-gerelateerde bedreigingen.