L’apparition de l’IA dans le domaine du doublage peut être perçue comme une menace pour les doubleurs professionnels. En effet, elle peut être programmée afin d’imiter la voix et l’intonation d’un acteur, rendant les performances des doubleurs moins nécessaires. L’avènement de cette technologie pourrait donc mettre en danger l’essence même du métier de doublage.
Ces dernières années, l’évolution continue de la technologie a permis à des entreprises de synthétiser des voix. Il s’agit d’un nouveau territoire à explorer pour des sociétés se spécialisant dans la technologie vocale. Le doublage professionnel de séries, d’animés et de films constitue un métier apportant un véritable atout et une valeur à la profession. Avec l’avènement du numérique, des entreprises ont besoin d’être constamment en ligne. Cela crée une forte demande en techniciens experts comme le développeur web, dans de nombreuses sociétés. Cependant, l’essor de la technologie vocale IA a suscité des inquiétudes quant à l’avenir du métier en raison de la concurrence créée.
Une profession en péril ?
Les doubleurs professionnels de série ou de films apportent une valeur ajoutée au métier en interprétant des personnages et acteurs étrangers. Le doublage constitue un élément culturel important, car il permet de faire découvrir des œuvres d’autres pays dans d’autres langues.
De plus en plus performants, les systèmes d’IA semblent être mis en concurrence avec les doubleurs professionnels. Capable de produire des voix synthétiques réalistes, la technologie vocale IA permet de restreindre les dépenses de production. Certaines sociétés considèrent le doublage traditionnel comme lent et coûteux. Et la recherche d’acteurs compétents n’est pas toujours évidente.
Les logiciels d’IA ciblent principalement les industries de la narration, du doublage, des jeux vidéo, etc. Avec ces logiciels, cela pourrait entraîner une diminution des opportunités de travail pour les professionnels du doublage.
L’Union des artistes québécois s’inquiète de l’impact de cette technologie sur ses membres. Elle risque de faire disparaître cette profession et son savoir-faire. D’ailleurs, il y existe 5 grands studios qui disposent de nombreux interprètes en doublage comme :
- La Belle Équipe ;
- Difuze ;
- Mel’s ;
- Pixcom ;
- Cinélume.
Parmi les voix en doublage québécois, l’on peut citer comme exemple :
- Alain Zouvi pour la voix de Brad Pitt ;
- David Laurin pour le doublage de Leonardo DiCaprio ;
- Aline Pinsonneault pour Natalie Portman, etc.
Impressionnante, la technologie vocale suscite des préoccupations. En raison de sa capacité, elle est capable de modifier radicalement les dialogues et de faire prononcer des propos jamais tenus .
Le développement de la technologie IA Vocale
L’utilisation de l’IA générative dans l’industrie cinématographique menace certains métiers comme celui de doubleurs de voix. Nombreuses sont les start-ups expertes dans la technologie vocale de l’IA, capable de synthétiser ou de cloner la voix des acteurs. Certaines peuvent même concevoir des voix off à partir de textes en temps réel.
Parmi ces sociétés, l’on peut mentionner :
- ElevenLabs ;
- Resemble AI ;
- Deepdub ;
- Respeecher ;
- WellSaid Labs, etc.
Se spécialisant dans l’IA vocale et le text to speech synthesis , les start-ups utilisent des techniques de synthèse élaborées. Performantes, les voix synthétiques peuvent imiter des voix humaines dans n’importe quelle langue, instantanément, avec n’importe quelle voix.
D’ailleurs, le directeur des revenus de Deepdub, Oz Krakowski :
Lorsqu'il s'agira de doubler des succès hollywoodiens dans d'autres langues, les voix d'IA auront un avantage sur les acteurs humains »
Oz Krakowski
En effet, les IA peuvent permettre :
[…] à un personnage interprété par une célébrité - par exemple, Morgan Freeman - de conserver sa voix originale tout en parlant parfaitement n'importe quelle langue avec n'importe quel accent et n'importe quel dialecte local ».
D’ailleurs, Flawless AI est un exemple d’entreprise utilisant une IA pour la synchronisation labiale en postproduction. Il s’agit de faire concorder les dialogues originaux des acteurs aux dialogues traduits ou modifiés .
La technologie TrueSync de la société modifie ainsi subtilement les mouvements de la bouche de l’acteur. Elle permet de les faire concorder aux nouveaux dialogues enregistrés par un acteur ou un interprète. Flawless AI affirme en effet que le doublage humain est rarement synchronisé avec les mouvements faciaux des acteurs et qu’il sacrifie le sens et la nuance du contenu doublé.
Même si les voix synthétiques sont encore imparfaites, elles s’améliorent rapidement. D’ailleurs, certaines entreprises revendiquent déjà de pouvoir créer des voix en tout point identiques à celles de l’orateur original.