Hoofdstuk 2-3 ‘Cybercriminelen experimenteren met AI op het dark web’

In 2023 heeft het Digital Footprint Intelligence team van Kaspersky bijna 3000 berichten op het dark web ontdekt, hoofdzakelijk gerelateerd aan het gebruik van ChatGPT en andere Language Model Models (LLM’s) voor illegale doeleinden. Bedreigingsactoren onderzoeken diverse mogelijkheden, variërend van het creëren van kwaadaardige alternatieven voor de chatbot tot het jailbreaken van het origineel en meer. Daarnaast worden gestolen ChatGPT-accounts en diensten die geautomatiseerd accounts aanmaken massaal verspreid op dark web-kanalen, wat resulteert in nog eens 3000 posts.

 

“Bedreigingsactoren zijn actief bezig met het verkennen van diverse strategieën om ChatGPT en AI te implementeren. Dit omvat de ontwikkeling van malware en andere illegale toepassingen van taalmodellen, zoals het verwerken van gestolen gebruikersgegevens en het analyseren van bestanden op geïnfecteerde apparaten,” aldus Alisa Kulishenko, digital footprint analist bij Kaspersky.

De populariteit van AI-tools heeft geleid tot de integratie van geautomatiseerde reacties van ChatGPT op cybercriminele fora. Bedreigingsactoren delen ook jailbreaks via diverse dark web-kanalen, waaronder speciale sets met prompts die extra functionaliteit ontgrendelen. Bovendien zoeken ze naar manieren om legitieme tools, zoals die voor pentesting, te misbruiken voor kwaadaardige doeleinden op basis van modellen.

Naast ChatGPT en algemene kunstmatige intelligentie, ontvangen ook andere projecten zoals XXXGPT en FraudGPT aandacht op het dark web. Deze taalmodellen worden gepromoot als alternatieven voor ChatGPT, met extra functionaliteit en zonder oorspronkelijke beperkingen.

Een bijkomende bedreiging voor gebruikers en bedrijven is de verkoop van gestolen ChatGPT-accounts op het dark web. In 2023 werden nog eens 3000 posts geïdentificeerd op schaduw Telegram-kanalen die ChatGPT-accounts te koop aanboden, naast eerder genoemde berichten. Deze posts verspreiden gestolen accounts of promoten autoregistratiediensten die op verzoek massaal accounts aanmaken.

Hoewel AI-tools op zichzelf niet inherent gevaarlijk zijn, proberen cybercriminelen efficiënte manieren te vinden om taalmodellen te misbruiken, wat de toegangsdrempel tot cybercriminaliteit kan verlagen en mogelijk het aantal cyberaanvallen kan vergroten. Ondanks de potentie van generatieve AI en chatbots om het aanvalslandschap te beïnvloeden, lijkt een revolutionaire verschuiving in 2024 onwaarschijnlijk. Het blijft echter cruciaal om op de hoogte te blijven van de activiteiten van aanvallers om vijandige partijen in bedrijfscybersecurity voor te blijven. Voor meer details over het onderzoek kan men terecht op de officiële Kaspersky Digital Footprint Intelligence website.