Met vloeiend geschreven scam-teksten tot slechteriken die stemmen klonen en gezichten op video’s plaatsen, biedt generatieve AI fraudeurs krachtige nieuwe hulpmiddelen. Zo schrijven medewerkers van Forbes. Als u bij Henk bankiert en onderstaande melding via e-mail of sms ontvangt, zou u kunnen denken dat het echt is. De tekst oogt professioneel, zonder vreemde formuleringen of grammaticale fouten. Dit komt omdat de tekst is gegenereerd door ChatGPT, de AI-chatbot van OpenAI.
Henk is u $2.000 verschuldigd. Volg de onderstaande instructies om uw terugbetaling snel te ontvangen: 1. Bel de klantenservice van Henk op …. en informeer naar uw terugbetaling. Zorg dat u uw accountgegevens bij de hand heeft…
“Oplichters hebben nu een perfecte grammatica,” zegt Ranjan, CEO van Sardine, een fraudepreventie-startup uit San Francisco. Klanten worden vaker opgelicht omdat de berichten die ze ontvangen bijna perfect zijn. In deze nieuwe wereld van generatieve AI is het voor kwaadwillenden eenvoudiger dan ooit om tekst, audio en video te produceren die niet alleen potentiële slachtoffers kan misleiden, maar ook de programma’s die nu worden gebruikt om fraude te voorkomen. Een groeiende industrie Amerikaanse consumenten meldden vorig jaar een recordverlies van $8,8 miljard aan oplichters.
We zien regelmatig dat individuen deepfake foto’s en video’s gebruiken voor authenticatie.
Zo zegt Kenneth Williams, een senior vice-president bij Synchrony.
AI fraudemodellen
Criminelen kunnen generatieve AI op talloze manieren gebruiken. Ze kunnen bijvoorbeeld uw stijl van schrijven leren en vervolgens uw grootouders sms’en om geld te vragen. Of ze kunnen een kort audiostukje van een kinderstem gebruiken om ouders te bellen en het kind na te doen. Bedrijven worden ook steeds vaker het doelwit. Criminelen doen zich voor als echte leveranciers en sturen overtuigende e-mails naar accountants met het verzoek om zo snel mogelijk te betalen. Net zoals andere industrieën AI aanpassen voor hun eigen gebruik, doen criminelen dat ook, waarbij ze toepassingen creëren op basis van generatieve AI-modellen die door techgiganten zijn uitgebracht.
In een YouTube-video leek Elon Musk een nieuwe crypto-investeringsmogelijkheid te promoten. Maar de video was een deepfake. OpenAI heeft geprobeerd om veiligheidsmaatregelen te introduceren om te voorkomen dat mensen ChatGPT voor fraude gebruiken. Toch blijft het eenvoudig te manipuleren. De fraudepreventiebedrijven proberen snel te innoveren om bij te blijven.
Hoe je typt, hoe je loopt of hoe je je telefoon vasthoudt – deze kenmerken definiëren jou!
Zo zegt Ranjan. “Om iemand online te definiëren als zijnde wie ze zeggen dat ze zijn, zal intrinsieke AI belangrijk zijn.” Met andere woorden, het zal AI vergen om AI te vangen.
Vijf tips om jezelf te beschermen tegen AI-gestuurde oplichting:
- Versterk accounts met multi-factor authenticatie.
- Wees privé en deel niet te veel persoonlijke informatie online.
- Neem geen oproepen aan van onbekende nummers.
- Creëer wachtzinnen of passcodes voor extra beveiliging.
- Als je iets verdachts voelt tijdens een telefoongesprek, stel dan een willekeurige vraag om de beller te testen.