Aller au contenu

OpenAI peut mettre en filigrane le texte de l'IA avec "99,9% de certitude", mais ce n'est pas encore le cas

La technologie est précise, mais elle pourrait nuire à la ligne de fond de l'entreprise.

OpenAI Peut Marquer un Texte d'IA 'À 99,9% de Certainitude', Mais Il Ne Le Fait Pas (Pour...
OpenAI Peut Marquer un Texte d'IA 'À 99,9% de Certainitude', Mais Il Ne Le Fait Pas (Pour L'instant)

OpenAI peut mettre en filigrane le texte de l'IA avec "99,9% de certitude", mais ce n'est pas encore le cas

ChatGPT, la société mère d'OpenAI, aurait apparemment gardé sous silence une méthode pour marquer les textes générés par l'IA depuis plus d'un an, selon le Wall Street Journal. Une telle technologie serait un atout pour les enseignants, les chercheurs et tous ceux qui souhaitent s'assurer que ce qu'ils lisent vient d'une personne réelle, mais la société s'inquiète qu'elle puisse être contournée et que cela puisse nuire à ses affaires.

"La technologie qui peut détecter le texte écrit par l'intelligence artificielle avec une certitude de 99,9 % a été débattue en interne depuis deux ans", écrit le WSJ au sujet d'OpenAI, expliquant que la technologie est essentially prête à être utilisée et fonctionnerait en ajustant le modèle pour suivre un pattern détectable. Le média affirme que la société ne pense pas que l'outil de marquage réduirait la qualité de la sortie de ChatGPT, mais qu'elle s'inquiète que la détection et le marquage du texte généré par ChatGPT pourraient décourager presque 30 % des utilisateurs, qui ont déclaré à OpenAI qu'ils seraient moins susceptibles d'utiliser ChatGPT si le texte généré était marqué.

En réponse au rapport du WSJ, OpenAI a publié un billet de blog confirmant qu'elle étudie le marquage en interne, mais qu'il est moins efficace contre les textes traduits ou réécrits à l'aide d'un modèle externe. Il est également vulnérable aux hacking tels que l'ajout de caractères inutiles puis leur suppression, ce que OpenAI considère comme "trivial pour les acteurs malveillants". En alternative, la société explore l'utilisation de métadonnées pour marquer le texte généré par l'IA, qu'elle considère comme ne présentant "pas de faux positifs". La société utilise déjà des métadonnées pour marquer les images générées par l'IA, comme elle l'a détaillé dans un exemple de son billet de blog.

Quel que soit le moyen utilisé par la société, la demande pour une solution rapide est claire. Selon un sondage commandité par le WSJ, "les personnes dans le monde entier soutiennent l'idée d'un outil de détection d'IA par une marge de quatre contre un".

Google utilise déjà le marquage pour le texte généré par l'IA, comme expliqué lors du Google I/O de cette année.

La technologie de marquage d'IA développée par OpenAI pourrait bénéficier considérablement aux enseignants et aux chercheurs en aidant à la vérification de l'authenticité des sources de texte. Cependant, la société s'inquiète que les utilisateurs puissent trouver le texte marqué moins attrayant et que l'utilisation de la plateforme puisse diminuer.

Dans un scénario similaire, Google a déjà mis en place le marquage pour le texte généré par l'IA, démontrant ainsi son potentiel dans le domaine de la détection et de la prévention du plagiat.

Lire aussi:

commentaires

Dernier