Fin 2022, l’arrivée de ChatGPT a fait beaucoup de bruit. Ce robot conversationnel créé par l’entreprise d’intelligence artificielle OpenAI a pour objectif de pouvoir répondre à toutes nos requêtes, de la même manière que le ferait un humain. C’est là tant sa force que sa faiblesse. En effet, si Chat GPT nous facilite de nombreuses tâches, la qualité du résultat fourni n’est pas irréprochable et les conséquences de ses erreurs peuvent conduire à une véritable désinformation. De plus, si cette nouvelle technologie semble au premier abord simple et très utile, cette similitude avec le langage humain peut inquiéter et de nombreuses questions se posent, notamment en terme d’éthique.
Une information limitée :
ChatGPT utilise un modèle de langage entraîné sur de nombreuses et importantes bases de données numériques pour produire des textes dans un langage humain.
Ce système est assez impressionnant : il peut produire des textes différents pour une même question, reformuler, améliorer. Il donne en général des informations assez objectives : par exemple, lorsqu’on lui demande des explications sur des sujets qui font débat (tels que le wokisme, le féminisme, les partis politiques), il expose la situation actuelle en donnant les différentes opinions sur le sujet concerné sans prendre parti. Et il fournit en général des informations justes.
Cependant, ce modèle n’est pas sans limite. Au contraire, plusieurs points sont à soulever :
Tout d’abord, concernant la véracité de ses propos : nombreux sont les cas où il est possible de le pousser à donner de fausses informations, ou ceux où il donne de lui-même une réponse erronée à une question (interrogé par exemple sur le vol de données, question controversée en doctrine et en jurisprudence, il donne au contraire une réponse tranchée soi-disant fondée sur le code pénal). Lorsqu’on lui fait alors remarquer son erreur, il n’hésite pas à la reconnaître et modifier ses propos. De plus, les informations qu’il détient sont limitées à celles qui étaient disponibles en 2021. Impossible alors d’obtenir une réponse lorsque lui est posée la question du résultat d’un évènement sportif ou d’une élection politique passé cette date. Il convient tout de même de noter que la version 4 de GPT, qui est en cours de développement chez OpenAI, résoudra sans doute ce problème. Mais pour l’heure, c’est toujours une limite. Il semble nécessaire de rappeler ici que Bard, l’équivalent chez Google de ChatGPT, a commis une erreur en direct à l’occasion d’une démonstration publique : il a affirmé que le télescope spatial James-Webb est le premier qui a pu prendre des photos d’une planète hors du Système solaire. En réalité, cela avait déjà été fait en 2004…
Ensuite, il faut noter que ces erreurs factuelles ne sont pas les seules à prendre en compte lorsque l’on s’intéresse à la véracité des propos fournis par GPT 3 : les biais cognitifs constituent eux aussi un défaut du modèle à déplorer. En effet, les documents dont s’est nourri GPT 3 contiennent parfois des biais cognitifs, par exemple racistes ou sexistes, qu’il reproduit dans ses réponses. L’objectivité du robot conversationnel n’est donc pas absolue, bien qu’il répète à outrance, dès que son avis lui est demandé, que « En tant qu’intelligence artificielle, [il n’est] pas en mesure d’avoir d’opinions personnelles. Cependant, [il peut] vous fournir une définition de ce terme et vous donner une perspective neutre. ». Malheureusement, cette réutilisation des biais présents dans les textes initiaux les perpétue, sans qu’il ne soit possible de savoir d’où vient cette vision donnée sur sujet précis, puisque ChatGPT ne donne pas ses sources. Ce dernier élément peut également poser quelques interrogations concernant la propriété intellectuelle du travail effectué par l’IA.
Enfin, il existe un risque de faire circuler des fausses informations fournies par l’intelligence artificielle, pour deux raisons : d’une part, ChatGPT fournit ses réponses avec un aplomb déconcertant, qui ne laisse pas la place au doute et pousse à lui faire confiance, à ne pas vérifier les réponses apportées, au risque de diffuser ensuite ces grossières erreurs qu’il est capable de produire. D’autre part, il ne faut pas négliger la possibilité d’une vague de fake news du fait d’une intervention humaine : en effet, ChatGPT est capable d’inventer des textes contenant les informations qui lui sont données, y compris de fausses informations. Il serait alors ensuite possible de diffuser ces fausses informations en les présentant comme vraies. Mais ce n’est pas tout : le modèle de langage d’OpenAI se nourrissant d’informations présentes sur internet, il pourrait par la suite se fonder sur ces fausses informations pour apporter des réponses aux utilisateurs qui l’interrogent.
Des questions éthiques :
ChatGPT est capable d’écrire des textes de qualité, semblables à ceux produits par les humains. Cela pose la question de leur utilisation dans le monde de l’enseignement. Une polémique a surgi lorsqu’il a été compris que ChatGPT peut être un outil facilitant la triche de certains étudiants : comment pourra-t-il être possible de déterminer si un texte a été rédigé l’étudiant ou par ChatGPT ? Les textes qu’il crée sont d’une très bonne qualité et il ne propose jamais deux fois le même, de sorte que son utilisation pour rédiger des devoirs est très difficilement détectable.
Cette polémique a contraint OpenAI à développer un outil permettant de détecter les textes rédigés par ChatGTP : GPT Zero. En effet, certains points, tels que la structure utilisée ou la ponctuation, sont utilisé de façon assez régulière par l’outil d’IA, ce qui peut permettre de reconnaître son travail. Une fois le texte litigieux rentré dans GPT Zero, ce dernier évalue, avec une échelle allant de 1 à 5, si ce texte a pu être rédigé par ChatGPT. Il ne s’agit donc pas d’une réponse certaine et l’outil peut laisser passer quelques textes. De plus, en l’état actuel de son développement, GPT Zero fonctionne principalement sur des textes de plus de 1000 mots et rédigés en anglais, ce qui limite considérablement son efficacité. C’est pourquoi des entreprises distinctes d’OpenAI se sont lancés sur le sujet : le 16 janvier a été lancé le site Detector.dng.ai afin de déterminer si oui ou non un texte a été rédigé par ChatGPT. Et les logiciels antiplagiat, qui sont pour le moment incapables d’être efficaces lorsque le robot conversationnel rentre dans l’équation, devront rapidement s’améliorer.
Mais finalement, la question qu’il convient de se poser, alors que plusieurs établissements ont décidé d’interdire son utilisation (dont fait partie Sciences Po), est plutôt celle de son intégration dans l’enseignement, comme il a fallu le faire à l’occasion de l’apparition de nombreuses autres nouvelles technologies. D’autant plus que la qualité de cette IA risque de rendre difficile, dans le futur, de détecter les textes rédigés par des humains de ceux rédigés par des robots : autant donc apprendre à les maîtriser le plus tôt possible.
Vous pouvez, pour en apprendre plus sur le droit applicable relatif à ChatGPT, cliquer ici.