Le robot conversationnel de la société américaine OpenAI suscite un vif intérêt dans l’univers de la technologie. Cette nouvelle solution d’intelligence artificielle étant en mesure de générer des textes incroyablement aboutis et cohérents. En l’absence d’encadrement, le programme pourrait cependant déboucher sur une prolifération de différents actes malveillants, s’inquiètent de nombreux observateurs.
Fin novembre 2022, OpenAI a dévoilé son générateur de texte ChatGPT. Le logiciel est pour l’instant en accès libre sur le site de la start-up californienne. Les experts cybersécurité intéressés peuvent le tester en fournissant leur adresse électronique.
Le programme est basé sur la technologie GPT-3, dont une intelligence artificielle (IA) assure la gestion. Il produit des textes en différentes langues à l’aide de procédés de machine learning. Alimenté en amont d’une immense quantité de documents, l’outil en a tiré des accords de proximité. Ceci grâce à l’examen des mots et des suites de mots voisins, puis des phrases et paragraphes adjacents.
Un contexte étant défini, le robot conversationnel se sert ainsi des éléments de langage afférents. Puis il les place les uns à côté des autres. La durée de l’analyse préliminaire varie en fonction du volume de ressources d’apprentissage. La crédibilité du résultat dépend également de ce dernier.
Le logiciel d’OpenAI se conforme aux vœux formulés par l’utilisateur : article de presse, dissertation, recette culinaire, etc. Il peut aussi s’adapter à un style déterminé, pour générer un discours comme le ferait une personnalité politique par exemple. Les textes créés affichent une qualité telle qu’on éprouverait une gêne en face.
Ouest-France a essayé ChatGPT avec la question « Pourquoi les pharmacies manquent-elles de Doliprane pour enfants ». Le journal a eu comme réponse :
Je ne suis pas sûr de la raison exacte pour laquelle les pharmacies pourraient manquer de Doliprane pour enfants en ce moment. Cela pourrait être dû à une forte demande pour ce médicament en raison d’une augmentation des cas de maladies chez les enfants, ou à des problèmes de production ou de distribution du médicament. […]
Il lui a également été conseillé de contacter une officine locale afin d’obtenir de plus amples informations sur le sujet.
The Guardian révèle aussi que des universitaires ont essayé le robot en lui posant des questions d’examen. Ils ont conclu qu’il recevrait des notes similaires à celles d’un étudiant en licence.
Ces performances renversantes peuvent assurer une énorme économie de temps à l’usager. La seule tâche qui lui restera à accomplir sera de vérifier la véracité du texte. Sans contrôle, le logiciel risque toutefois de faire un non-sens, car il ne comprend pas la requête émise, ou d’exagérer. De surcroît, le robot est incapable de conserver le rapport entre les renseignements produits et leurs sources. Un défaut qui complique la supervision par un non-expert.
Ces prouesses s’avèrent par ailleurs légèrement effrayantes. Si bien qu’elles raniment le débat sur les dangers relatifs aux solutions d’intelligence artificielle. Le générateur de texte d’OpenIA admet que les outils comme ChatGPT peuvent effectivement causer des préoccupations à cause de :
[…] Leur capacité à simuler des conversations humaines de manière très réaliste.
Ainsi, de nombreuses personnes craignent un remplacement des publicitaires, journalistes et autres producteurs de contenu. D’autres redoutent leur détournement, par exemple en vue de :
Des limites ont toutefois été fixées afin d’empêcher les déviances. ChatGPT s’interdit notamment de prendre position sur des sujets ou avis controversés.