Les cas d’usage de l’intelligence artificielle au quotidien se multiplient incessamment à l’heure de la transformation numérique de la société. Ce phénomène entraîne la création de nouveaux risques, qui peuvent aller jusqu’aux mesures de contrôle social. Pour cette raison, l’Union européenne, entre autres, prévoit de renforcer la régulation de cette technologie.
À ses débuts, l’intelligence artificielle (IA) constituait uniquement un segment de la science informatique. Mais depuis, elle s’est évadée des laboratoires de recherche avec l’émergence des systèmes d’IA. Maintenant, l’on commence à prendre conscience que l’IA s’est développé tellement vite. Au point qu’elle va sans doute changer le monde.
Face à cette éventualité, les informaticiens devraient faire en sorte que cette technologie reste sous le contrôle de l’humain. Pour travailler dans l’IA, ces experts peuvent intégrer une entreprise du secteur comme salarié ou devenir freelance. Une forme d’emploi dont l’adoption requiert le suivi de quelques démarches : étude de marché, choix de statut juridique, prospection…
Les développeurs pourraient perdre le contrôle sur certaines décisions
Encore récemment, les algorithmes et les décisions qui en résultaient émanant d’équations et de formules mathématiques dépendaient beaucoup :
- Des programmeurs ;
- De leur vision des choses et de leur culture.
Depuis peu, ces règles proviennent davantage de propriétés dissimulées dans les informations sur la base desquelles les algorithmes apprendront d’eux-mêmes. Ceci selon la qualité, mais aussi la quantité de la donnée analysée. Ces algorithmes sont connus pour être compliqués à comprendre, aussi bien pour l’usager lambda que pour leur programmeur expert. La raison : leurs processus d’optimisation s’avèrent :
- Difficile à dupliquer à l’identique ;
- En opposition totale avec les façons de raisonner de l’humain.
Ces algorithmes demeurent certes initialement toujours relativement sous l’emprise du développeur Cependant, une partie considérable des décisions qui en découlera pourra lui échapper. Ce qui, en conséquence, laissera entier chaque problème lié :
- Au manque de transparence des solutions avancées par l’algorithme ;
- À leur complexité ;
- Parfois à leur non-compréhension.
L’IA a permis d’incroyables avancées dans la reconnaissance de formes (sur les localisations, voix, images...). Cependant, les progrès dans ce domaine engendrent des systèmes de prédiction qui créent des risques grandissants en matière de :
- Droits fondamentaux : discrimination, manipulations… ;
- Sécurité : armes autonomes, contrôle social ;
- Santé.
L’UE prépare un règlement visant à contrôler l’IA
En mars dernier, la Chine a adopté une loi relative à la transparence des algorithmes de suggestions.
En parallèle, l’Union européenne entrera l’année prochaine dans une nouvelle phase de l’encadrement de l’IA. L’organisation supranationale prévoit d’ici là de déployer le règlement AIA (Artificial Intelligence Act).
Ce texte se fonde sur le niveau de risque des systèmes d’IA. Celui-ci reposant sur une structure en pyramide similaire aux menaces nucléaires : risque minimum, faible risque, haut risque, inacceptable. Chaque degré de risque s’assortit :
- D’exigences ou d’obligations, sur lesquelles la Commission et le Parlement européen négocient encore et qui sont détaillées en annexes ;
- De prohibitions.
Le Comité européen de l’IA et les autorités nationales compétentes vérifient leur respect et les sanctions.
L’utilisation des systèmes de prise de décision automatisée se démocratise de plus en plus. Dans ce contexte, il devient essentiel de pouvoir confirmer, interpréter et expliquer les suggestions données par les algorithmes. De surcroît, celles-ci s’imposent inéluctablement dans la vie que l’humain mène tous les jours, avec par exemple :
- L’attribution de crédits bancaires ;
- La reconnaissance faciale ;
- La sélection des étudiants dans l’enseignement supérieur.
L’algorithme auquel Parcoursup recourt a exposé l’opacité de ceux sur lesquels les universités s’appuient pour inscrire les étudiants.