Avec l’avènement de l’intelligence artificielle, les responsables de la sécurité des systèmes d’information (DSI) et les experts en cybersécurité s’interrogent sur les risques que font peser les modèles de langages de grande taille (LLM) sur la sécurité des SI. En effet, ces technologies peuvent être utilisées pour générer des codes malveillants, tels que des virus, des vers ou des chevaux de Troie.
LLM : de trop grandes restrictions pour devenir des menaces
Les experts en cybersécurité pourront se rassurer sur un point : les principaux modèles d’intelligence artificielle générative ne sont pas encore capables de fournir aux utilisateurs mal intentionnés des lignes de code fonctionnelles.
Les dirigeants d’entreprise doivent néanmoins mesurer l’importance stratégique de la cybersécurité pour 2024 et après. Non seulement ils devront mettre en place des services opérationnels, mais en plus ils ont intérêt à définir une véritable politique de protection qui anticipera les menaces futures.
Bien que cette technologie n’en soit encore qu’à ses balbutiements, l’intelligence artificielle a déjà enregistré d’immenses avancées. Il ne sera donc pas étonnant de voir les hackers s’approprier ce nouvel outil à la puissance méconnue.
Les AIOps pour améliorer l’efficacité du système d’information de l’entreprise
L’AIOps (Artificial Intelligence for IT Operations) est un ensemble d’outils basés sur le Big data et l’apprentissage automatique (machine learning) pour automatiser de nombreux services informatiques. Cela passe également par la détection des risques.
À ce stade, un AIOps pourrait même détecter les menaces avant que celles-ci n’atteignent les services vulnérables d’un système d’information.
De plus, avec les générateurs d’images comme Midjourney, il sera plus simple de concevoir un courrier de meilleure qualité pour atteindre un plus grand nombre de victimes.
Une formation continue à l’attention des non-spécialistes est donc indispensable pour rendre la politique de protection aussi efficace que possible. Et depuis quelque temps, il existe également le vishing qui permet de cloner la voix d’une personne.