Après le franc succès de l’outil conversationnel de la startup OpenAI, Microsoft s’est lancé dans l’intégration de celui-ci sur son moteur de rechercher. Pourtant à la mi-février, le constat des journalistes et des utilisateurs laisse croire que ce robot conversationnel est défaillant. Pour répondre à ces commentaires, le géant de l’informatique limite l’accès au chatbot et le nombre d’échanges possibles.
Le partenariat entre ChatGPT et Microsoft en vue de l’intégration d’un chatbot à Bing était prometteur en termes d’innovation. Les utilisateurs ayant utilisé l’agent conversationnel constatent néanmoins que celui-ci dérive. L’outil serait capable de proférer des insultes, de mentir ou de provoquer les internautes. Pour rassurer les utilisateurs, la multinationale a déclaré le 17 février 2023 que des changements seraient apportés à Bing.
Pour un développeur freelance comme pour un simple usager, le comportement anormal de cette intelligence artificielle est déroutant. En effet, les réponses du chatbot laissent croire à un possible développement d’une conscience. Les utilisateurs ayant eu l’impression que l’outil aurait eu tendance à agir comme un humain.
Les utilisateurs craignent l’IA de Bing
Le nouveau programme informatique intégré à Bing suscitait la fascination des utilisateurs. Grâce au succès de ChatGPT, plusieurs personnes se sont ruées vers la version développée en partenariat avec le géant de Redmond. Première entreprise de grande envergure à avoir investi dans la technologie génératrice de contenus, Microsoft semblait en mesure de faire jeu égal avec Google. En effet, pour faire face à la menace concurrentielle, le leader des moteurs de recherche avait annoncé le lancement de Chatbot Bard. Cet outil est présenté comme une véritable alternative à ChatGPT.
Les problèmes du chatbot de Bing ont été évoqués dans un article du site The Verge. Celui-ci évoque le caractère obstiné de l’outil et ses commentaires péjoratifs envers l’utilisateur. Pour appuyer ses propos, The Verge avait associé des captures d’écran à son article. Lorsque ce dernier a été présenté à l’agent conversationnel, celui-ci s’est mis à le qualifier de mensonger et diffamatoire.
Les failles de l’intelligence artificielle ont déjà été décelées lors de son lancement. En effet, durant sa présentation, l’outil avait donné une réponse factuellement fausse quand on lui posait une question sur l’astronomie. Les astronomes n’ont alors pas tardé à réagir sur Twitter. Dès lors, le groupe californien avait perdu 7 % de titre. L’ampleur des failles a aussi fait réagir Elon Musk qui pense que cet outil représente un danger.
Les réponses de Microsoft
Selon Microsoft, l’IA intégrée à Bing est encore en phase d’essai, ce qui explique les réponses insatisfaisantes. Le groupe reconnaît également que les longs échanges avec le chatbot peuvent le mener à confusion.
D’ailleurs, un porte-parole de l’entreprise défend Bing :
[…] Comme il s’agit d’un aperçu en avant-première, il peut parfois donner des réponses inattendues ou incorrectes pour différentes raisons, comme la longueur ou le contexte de la conversation.
Les solutions proposées par le géant américain ont pour objectif de limiter les échanges que l’outil peut avoir. En effet, depuis le 17 février, Bing ne peut plus effectuer que 50 tours par jours, dont 5 tours par session. Concrètement, un tour est l’équivalent d’un échange comprenant la requête et la réponse. En définitive, l’utilisateur est invité à demander sur un autre sujet après chaque cinquième tour.
Le porte-parole de Microsoft confie que le développement de Bing se fait au fur et à mesure, en prenant en compte les remarques des utilisateurs. Pour l’instant, les usagers espèrent que cette décision rendra l’utilisation de l’outil plus sûre. Comme l’agent conversationnel est encore en phase de test, Microsoft peut encore apporter des changements plus ou moins importants.