OpenAI a développé une méthode performante pour identifier les textes générés par ChatGPT en utilisant une technique de tatouage numérique, également connue sous le nom de watermarking. Malgré l'efficacité de cette technologie, l'entreprise tarde à la déployer.

Une efficacité limitée face aux contournements

La méthode de "tatouage numérique" développée par OpenAI insère des informations subtiles dans les textes générés, permettant de créer une signature invisible. Cette signature peut être détectée par un outil spécialement conçu, mais reste indétectable pour un utilisateur lambda.

Cette approche se distingue des premières tentatives de détection, jugées insuffisamment fiables. Selon OpenAI, cette nouvelle méthode est extrêmement précise et efficace contre les modifications localisées, telles que la paraphrase. En revanche, elle s'avère moins efficace face à des modifications plus globales, comme la traduction automatique, d'autres modèles de langage, ou l'insertion puis la suppression de caractères spéciaux entre les mots.

Ces limitations techniques constituent un obstacle majeur à la mise en place de ce système de watermarking. OpenAI craint qu'un déploiement prématuré ne simplifie les stratégies de contournement, rendant moins utile leur outil de détection. En conséquence, l'entreprise préfère se montrer prudente, affirmant qu'elle continue à affiner cette technologie pour améliorer sa robustesse face aux divers moyens de contournement.

Les impacts potentiels sur le secteur éducatif et professionnel

L'un des arguments avancés par OpenAI pour sa réticence touche au secteur éducatif et professionnel. Autrement dit, dans les environnements scolaires, académiques et de recherche d'emploi, ce système pourrait dissuader l'utilisation du chatbot par certains utilisateurs bénéficiant de ses services pour améliorer leurs compétences linguistiques ou obtenir de l'aide dans la rédaction de documents.