Een van de methodes dat cybercriminelen gebruik maken van generatieve AI is door de chatbot ChatGPT. Ook gebruiken minder bekwame hackers taalmodellen, ‘large language models (LLM)’. Met de opkomst van LLM’s kunnen cybercriminelen steeds makkelijker phishing-berichten opstellen zonder spellings- en grammaticafouten. Uit onderzoek van Darktrace blijkt dat de taalkundige complexiteit van phishing-mails sinds de lancering van de chatbot met 17 procent is toegenomen. Tegelijkertijd richten cybercriminelen zich steeds meer op zogenoemde spearphishing-berichten. Dit soort berichten zijn doorgaans goed geschreven en specifiek gericht op een individu, zoals een hooggeplaatste medewerker binnen een organisatie.
Gebruik van deepfakes
Het generen van videobeelden en stemgeluid is ook een van de toepassingen van generatieve AI. Zo kunnen cybercriminelen met deepfakes’ de veiligheidssystemen en apparaten en diensten omzeilen. Denk bijvoorbeeld aan een vingerafdruk of gezicht om een telefoon mee te ontgrendelen. Onlangs wist een journalist toegang te krijgen tot de saldo- en transactie-informatie van een bankrekeningen door met AI zijn stem te vervormen. Daarnaast zijn bedrijven nog niet echt gealarmeerd. Uit onderzoek van ABN Amro blijkt dat 29 procent van de bevraagde ondernemers de ontwikkeling als bedreiging ziet voor de cyberveiligheid van de organisatie.