Hackers die banden hebben met landen als Rusland, Noord-Korea en Iran gebruiken chatbot ChatGPT om nieuwe manieren te leren voor het uitvoeren van online aanvallen. Dat hebben het ChatGPT-moeder OpenAI en techconcern Microsoft woensdag bekendgemaakt na onderzoek. De bedrijven melden de accounts van de cybercriminelen inmiddels te hebben geblokkeerd.
ChatGPT werd onder meer gebruikt voor "het opvragen van open source-informatie, vertalen, het vinden van coderingsfouten en het uitvoeren van basiscoderingstaken", meldt OpenAI in een bericht op de website van het bedrijf. Vooralsnog zou het gevaar "beperkt zijn", stelt het bedrijf verder. "Er zijn een handvol kwaadwillende actoren die voortdurende aandacht nodig hebben, zodat iedereen kan blijven genieten van de voordelen."
Microsoft is al jaren een belangrijke investeerder voor OpenAI. Het techconcern gebruikt de technologie op het gebied van kunstmatige intelligentie (AI) voor het ontwikkelen van eigen apps en software. Maar dat niet alleen. Het doel is volgens Microsoft ook het "zorgen voor een veilig en verantwoord gebruik van AI-technologieën zoals ChatGPT".
Microsoft licht in een bericht op de website van het bedrijf verschillende hackersgroepen uit, waaronder Forest Blizzard. Die groep heeft banden met de Russische militaire inlichtingendienst en zou de AI-technologieën van Microsoft en OpenAI hebben gebruikt voor "onderzoek naar verschillende satelliet- en radartechnologieën die betrekking kunnen hebben op conventionele militaire operaties in Oekraïne".
Een andere groep, Crimson Sandstorm, is te linken aan de Iraanse Revolutionaire Garde. Die gebruikte ChatGPT onder meer om malware te programmeren, waarmee schade toegebracht kan worden aan computers. Ook zocht de groep naar tips voor hackers om niet traceerbaar te zijn, meldt Microsoft.