La confiance du public dans l’intelligence artificielle (IA) est essentielle à son adoption généralisée et à son utilisation responsable. Dans cette optique, plusieurs entreprises de premier plan dans le domaine de l’IA ont pris une initiative audacieuse en collaboration avec le gouvernement américain. Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont décidé de s’engager volontairement en signant une série de mesures visant à garantir la sécurité, la fiabilité et la transparence de l’IA.
Lutter contre la désinformation grâce à un filigrane numérique
Parmi les mesures immédiates adoptées, l’introduction d’un filigrane numérique pour identifier les contenus générés par l’IA est préconisé .
Déjà utilisé par certains services comme Image Creator de Bing, ce marquage vise à limiter la propagation de la désinformation liée à ces contenus.
En rendant cette marque accessible aux lecteurs, auditeurs et spectateurs, il sera plus facile de connaître l’origine de ces créations et d’assurer ainsi une meilleure traçabilité.
Les entreprises signataires de l’engagement promettent également d’ utiliser l’IA pour le bien public, en soutenant notamment la recherche sur des sujets cruciaux tels que la lutte contre le cancer.
Subséquemment, les domaines d’application appropriés et inappropriés de l’IA seront soigneusement étudiés afin d’éviter tout usage nuisible de cette technologie.
Préserver la confidentialité des données et contrôler les risques de dérapage
Au-delà des promesses d’utilisation responsable, ces acteurs de l’IT ont à cœur de garantir la confidentialité des données.
Des initiatives telles que celles de Microsoft avec Bing Chat et Microsoft 365 Copilot illustrent leur engagement à protéger les informations personnelles et à prévenir tout abus potentiel de l’IA.
En outre, ces entreprises soumettront désormais leurs systèmes d’IA à des tests rigoureux pour évaluer leur sécurité, tant en interne qu’en externe, avant de les mettre à disposition du public. Elles promettent également de partager des informations cruciales sur la gestion des risques liés à l’IA avec diverses parties prenantes, telles que l’industrie et les experts IT, les gouvernements, le public et les universités.
un esprit de collaboration et d’ouverture, elles encouragent les chercheurs indépendants à analyser leurs systèmes d’IA afin de découvrir et signaler d’éventuelles vulnérabilités. Cette coopération vise à renforcer continuellement la sécurité et la robustesse des technologies d’IA.