ChatGPT revu deux ans plus tard : l’utilisation responsable de l’IA dans la traduction
Deux ans après le lancement de ChatGPT et d’autres modèles d’IA similaires, il est temps de revoir et d’évaluer de manière critique le rôle de l’IA dans des domaines comme la traduction, où ces outils ont commencé à redéfinir notre façon d’appréhender les langues et les cultures. Pour les professionnels comme les traducteurs juridiques, ces avancées offrent à la fois des opportunités et des défis, notamment pour concilier l’efficacité de l’IA avec la précision exigée dans les contextes juridiques. Si l’adoption de l’IA dans la traduction offre de vastes possibilités, elle soulève également des questions cruciales sur la confidentialité des données, la précision, la sensibilité culturelle et la gestion responsable des informations personnelles. Nous examinerons ici ces questions et les responsabilités qu’implique le recours à l’IA en traduction d’une manière qui garantisse l’équité, le respect et la prise en compte de l’éthique.
Préoccupations en matière de confidentialité des données : protection des informations personnelles
L’une des préoccupations les plus fortes concernant les outils de traduction basés sur l’IA est le risque potentiel de violation de la vie privée, en particulier en ce qui concerne les informations personnelles. Contrairement à la traduction « traditionnelle », où la personne qui traduit peut faire preuve d’une grande éthique professionnelle en matière de confidentialité, les modèles basés sur l’IA dépendent de vastes ensembles de données qui sont parfois obtenus auprès de sources sans le consentement explicite des personnes concernées. En outre, pour s’améliorer au fil du temps, de nombreux modèles d’IA utilisent l’apprentissage continu, ce qui peut involontairement entraîner des risques liés à la conservation des données ou à l’exposition d’informations sensibles si celles-ci ne sont pas suffisamment anonymisées.
La législation sur la protection de la vie privée, comme le Règlement général sur la protection des données (RGPD) de l’Union européenne ou la Loi 25 du Québec, exige que les entreprises obtiennent le consentement pour l’utilisation des données et protègent les informations personnelles identifiables (IPI). Cependant, à mesure que la traduction basée sur l’IA se répand, certaines questions sont soulevées quant à la manière dont ces technologies peuvent traiter involontairement des informations sensibles, telles que des dossiers médicaux, des documents juridiques ou des communications d’entreprise. L’utilisation d’un outil d’IA tel que ChatGPT pour la traduction de questions commerciales ou confidentielles pourrait conduire à des fuites de données involontaires si cet outil n’est pas utilisé avec précaution. Pour atténuer ces risques, l’utilisation responsable de l’IA en traduction suppose de mettre l’accent sur l’anonymisation des données, le cryptage et les pratiques de sécurité qui limitent le risque d’utilisation abusive des informations personnelles.
En outre, ChatGPT et les modèles similaires devraient établir des cadres solides en matière de consentement, en exigeant le consentement explicite de l’utilisateur avant de stocker toute donnée susceptible de contenir des IPI.
La question de la précision : trouver un équilibre entre l’automatisation et la supervision humaine
Bien que ChatGPT et les outils de traduction basés sur l’IA se soient considérablement améliorés sur le plan de la précision linguistique, il reste des cas où le modèle peut mal interpréter le contexte, les expressions idiomatiques ou les nuances culturelles spécifiques, ce qui conduit à des inexactitudes. Cela se produit particulièrement dans les traductions impliquant des langues présentant des structures syntaxiques différentes ou lors de la traduction de textes dans des domaines spécialisés comme le droit ou la médecine. Une traduction littérale peut ne pas refléter le sens voulu, et toute erreur peut avoir de graves conséquences, allant d’une mauvaise communication à un préjudice potentiel.
Dans certains cas, ces outils de traduction peuvent introduire des biais basés sur les données auxquelles ils ont été exposés; en effet, il arrive que ces données soient le reflet de dialectes particuliers, d’idiomes régionaux ou même de perspectives influencées par la langue source principale du modèle, ce qui crée certaines distorsions. Par conséquent, les outils de traduction par IA nécessitent une supervision étroite de la part d’experts humains pour vérifier et valider les résultats obtenus dans des scénarios critiques ou à fort enjeu.
Pour relever ces défis, une approche collaborative est en train d’émerger pour soutenir l’utilisation responsable de ChatGPT au cours du processus de traduction. Les traductrices et traducteurs peuvent utiliser l’IA comme un outil pour améliorer la précision et l’efficacité, en tirant parti de ses capacités de manière à compléter leur propre expertise. Ce type de collaboration permet de concilier les forces de l’IA avec la compréhension nuancée et le jugement critique que seuls les traductrices et traducteurs humains peuvent apporter, afin d’obtenir des traductions à la fois précises et pertinentes sur le plan culturel.
Sensibilité culturelle et considérations éthiques
L’IA en traduction a non seulement une responsabilité technique en matière de précision et de confidentialité, mais elle doit également relever le défi de la responsabilité éthique, en particulier lorsqu’elle traite de sujets ou de formes de langage culturellement sensibles. La traduction ne consiste pas seulement à « convertir » des mots. Elle véhicule également des valeurs, des idées et des représentations culturelles. Lorsqu’un modèle d’IA traite des termes, des blagues ou des références spécifiques à une culture, il peut manquer de la sensibilité ou de la compréhension nécessaires pour en saisir le sens véritable ou, pire encore, il peut générer une traduction offensante ou trompeuse.
Par exemple, les modèles de traduction par IA formés principalement à partir de contenus occidentaux peuvent se heurter à des expressions idiomatiques de langues non occidentales ou véhiculer des stéréotypes s’ils sont formés sur des ensembles de données biaisés. Une pratique éthique de la traduction par IA exige que les développeuses et développeurs forment les modèles sur des données variées et culturellement riches et qu’ils intègrent des mécanismes de retour d’information permettant à des utilisateurs d’horizons divers de signaler des inexactitudes ou des contenus offensants. Le contrôle et la mise à jour continus de ces ensembles de données peuvent aider le modèle à s’adapter et à corriger ces problèmes au fil du temps. Pour plus d’informations, voir Lost in Translation : Large Language Models in Non-English Content Analysis (en anglais)
L’utilisation responsable en pratique : transparence, consentement et responsabilité
En fin de compte, l’utilisation responsable de la traduction par l’IA exige que les entreprises, les développeurs(-euses) et les utilisateurs(-trices) adoptent des pratiques transparentes. Pour les développeuses et développeurs, cela signifie qu’ils doivent être transparents sur les pratiques de traitement des données, les sources de données et les mécanismes de correction des erreurs. Informer les utilisatrices et utilisateurs sur la façon dont les modèles d’IA comme ChatGPT apprennent des interactions et offrir des options claires pour refuser l’utilisation des données sont des actions essentielles pour gagner la confiance. D’un point de vue juridique, il est nécessaire de garantir la conformité avec les normes mondiales de confidentialité des données (comme la LPRPDE* ou la Loi 25 et le RGPD) afin de sécuriser les données sensibles et de faire preuve de responsabilité.
Pour les entreprises qui tirent parti de la traduction de l’IA, une utilisation responsable passe par la formation des employé(e)s aux implications en matière de protection de la vie privée et par la promotion d’une utilisation prudente de l’IA dans le traitement des informations sensibles. Les organisations devraient adopter des politiques qui précisent quand et comment il est acceptable d’utiliser la traduction basée sur l’IA plutôt que des traductrices et traducteurs humains, en particulier pour les documents confidentiels ou culturellement sensibles. En outre, les entreprises peuvent encourager la responsabilité en vérifiant régulièrement les systèmes d’IA qu’elles utilisent afin de s’assurer de leur exactitude, de leur conformité à la vie privée et du traitement respectueux des nuances culturelles. Pour en savoir plus, consultez Understanding responsible AI practices (en anglais).
Regard vers l’avenir : le rôle de la politique et de l’innovation pour garantir une traduction éthique de l’IA
L’avenir de l’utilisation responsable de l’IA dans la traduction dépendra d’un effort concerté pour établir des normes éthiques et des cadres de gouvernance. Les politiques encourageant la transparence, la protection de la vie privée et le respect culturel dans le développement de l’IA deviendront de plus en plus cruciales à mesure que la technologie évoluera. Les innovations en matière de techniques d’apprentissage automatique préservant la vie privée, telles que la confidentialité différentielle et l’apprentissage fédéré, offrent aux développeuses et développeurs des voies prometteuses pour créer des modèles de traduction sûrs et respectueux de la vie privée. Le développement d’une IA culturellement adaptative, capable de comprendre le contexte dans différentes langues et cultures, fera également progresser la traduction responsable de l’IA.
Alors que le ChatGPT et les modèles similaires continuent d’évoluer, la priorité doit rester la responsabilité éthique, en privilégiant la protection de la vie privée des utilisatrices et utilisateurs, l’exactitude des traductions et la sensibilité culturelle du contenu. L’utilisation responsable de la traduction par l’IA est plus qu’une simple considération technologique; il s’agit d’un engagement à créer un monde où l’IA améliore la communication sans compromettre les valeurs qui sous-tendent l’interaction humaine.
*Loi sur la protection des renseignements personnels et les documents électroniques (loi fédérale canadienne)