L’univers de la cybercriminalité s’adapte rapidement aux avancées de l’intelligence artificielle générative (IAG) en exploitant sa capacité créative pour perfectionner des attaques et des escroqueries. Cette tendance inquiétante suscite l’attention d’Interpol, qui a émis une alerte mondiale sur l’utilisation croissante de l’IA et des deepfakes pour rendre les usurpations d’identité plus efficaces.
L’IA générative au service des pirates informatiques
Popularisée par les robots conversationnels tels que ChatGPT, l’IAG s’immisce dans tous les secteurs de l’économie. Et son utilisation s’est également répandue dans le domaine de la cybercriminalité, où les pirates informatiques s’en servent pour améliorer l’efficacité de leurs attaques.
Avec cet outil, les fraudes en ligne, les tentatives de phishing, les ransomwares et même les « arnaques au président » deviennent plus redoutables.
Le rôle d’accélérateur de l’intelligence artificielle est d’ailleurs démontré par les experts en cybersécurité de la plateforme gouvernementale Cybermalveillance. s
Ces derniers expliquent que même si les méthodes des cybercriminels n’ont pas changé, le volume et la persuasion des attaques ont toutefois augmenté considérablements.
Autrefois trahies par des fautes d’orthographe, les campagnes de phishing sont désormais plus crédibles. Plus adaptés au langage de la cible, et mettant en avant des contextes appropriés pour l’inciter à cliquer sur des liens douteux, les e-mails sont souvent si bien conçus qu’ils peuvent tromper même les utilisateurs les plus avertis.
L’IA générative, une arme redoutable entre de mauvaises mains
Particulièrement efficace pour produire rapidement des lignes de code, l’IA générative est aujourd’hui détournée à des fins malveillantes.
Par exemple, ThreatGPT, un logiciel disponible sur le Darknet, permet de créer des virus sur mesure pour exploiter des vulnérabilités spécifiques. WormGPT et FraudGPT, deux autres outils malveillants, sont également de plus en plus utilisés par les cybercriminels. s
Les ransomwares, un fléau pour les entreprises et les hôpitaux, tirent déjà parti de l’IA. Les codes de ces programmes sont modifiés rapidement pour échapper aux outils de détection basés sur les signatures. Une fois qu’ils parviennent à s’infiltrer dans un réseau informatique, les pirates se servent de l’IA pour trier efficacement les données et maximiser leurs profits lors d’extorsions.
Les attaques de type « arnaque au président » prennent une nouvelle dimension en combinant le traitement massif de données avec des générateurs d’audio deepfake, permettant de reproduire parfaitement les voix humaines.
sLa police britannique a rapporté des affaires où des contenus synthétisés par l’IA ont été utilisés pour tromper, harceler ou soutirer de l’argent, parfois en imitant les voix des proches de la personne ciblée.
Les acteurs et les menaces émergentes
Les attaques sophistiquées sont généralement attribuées à des groupes de cybercriminels organisés, principalement situés en Europe de l’Est. Les pirates étatiques, comme ceux de la Corée du Nord, sont également évoqués comme acteurs potentiels.
Enfin, une menace émergente, appelée PoisonGPT, suscite des inquiétudes. Cette technique consiste à sempoisonner les algorithmes d’une IA avec de fausses données, incitant ainsi un chatbot à diffuser des fake news.
Dans le domaine de la cybersécurité et de l’IA, il est crucial de rester prudent et de ne pas faire confiance aveuglément à ces technologies.