Qu’en est-il de l’avenir des LLM et de la traduction automatique ?
Alors que nous envisageons un avenir où les LLM deviendraient de plus en plus sophistiqués, il semble qu’à l’heure actuelle, les modèles NMT adaptés fournissent des résultats plus cohérents et plus faciles à post-éditer pour obtenir une qualité élevée, en particulier avec du contenu de la vie réelle traité dans des workflows classiques de système de gestion de traduction.
Il est également important de souligner que les modèles NMT hautement entraînés (utilisant un contenu et une terminologie spécifiques à un domaine) ne sont pas soumis aux difficultés techniques et bizarreries qui persistent avec l’IA générative.
La NMT offre une plus grande prévisibilité, en particulier au fil du temps, et pour les langues adaptées. Nous avions également comparé les résultats de la NMT générique et des LLM, et alors que la qualité est inférieure (distance de post-édition accrue, etc.), la prévisibilité du résultat est constante. Avec les LLM, la qualité diminue rapidement, notamment avec des langues autres que l’anglais comme source, et avec des langues moins bien documentées de manière générale. Le résultat du contenu peut varier assez concrètement avec le temps.
Un exemple concerne les hallucinations IA – en particulier pour les langues moins documentées – qui peuvent affecter le résultat au point d’obtenir une traduction inexploitable. Ceci a été observé dans le cas d’une mauvaise gestion de contenu technique tel que des URL, de la terminologie spécifique à un client ou un domaine, et des courtes phrases. Cela signifie que les LLM ne produisent pas encore de résultats aussi fiables lorsque le contenu est traité en gros volumes, ou à grande échelle.
Dans l’ensemble, les résultats d’Acolad associés à la révision par un expert ont révélé que, bien que le résultat LLM obtienne des scores relativement élevés, le contenu était plus complexe, avec des éléments structurels comme le formatage ou le balisage en ligne.
Par ailleurs, pour répondre à l’exigence de traitement de prompts relativement complexes dans plusieurs langues et modèles, l’application plus étendue de la technologie LLM dans les workflows de traduction augmentera le coût total de traduction, même si les coûts de traitement brut, eux, sont en baisse.
En effet, si vous avez besoin de traduire automatiquement des volumes importants de contenu sans intervention humaine ou post-édition, il est préférable d’opter pour une solution de traduction automatique de qualité éprouvée – pour l’instant.
Comme évoqué précédemment, même en faisant appel à un humain pour éditer le résultat de la traduction automatique, il peut s’avérer plus coûteux d’utiliser la traduction automatique par rapport à l’IA générative, simplement en raison du temps économisé grâce au prompting itératif pour peaufiner le résultat du LLM. En outre, la NMT affiche des scores de distance de post-édition (PED) et de taux de traduction modifié (TER) inférieurs ; elle nécessite donc moins de travail de correction comparé au LLM.
Malgré ces résultats, il est clair que les LLM d’IA générative auront toujours un rôle important à jouer dans l’automatisation des traductions – en particulier avec le perfectionnement des modèles. Ils présentent un potentiel intéressant dans leurs applications, par exemple pour la réécriture stylistique du résultat de TA. Des éléments extrêmement probants indiquent que les LLM pourraient jouer un rôle décisif dans l’évaluation de la qualité, pouvant venir en l’appui des capacités en traduction telles que la post-édition « auto-réfléchissante ».
Ils affichent clairement des possibilités intéressantes dans le traitement des ambiguïtés, expressions idiomatiques, références culturelles, et même des tournures humoristiques que certains modèles de TA ont du mal à traiter, compte tenu des ensembles de données utilisés pour façonner leurs modèles.