L’intelligence artificielle (IA) existe depuis plusieurs décennies, mais ce n’est que récemment qu’elle commence à prendre une place importante dans nos quotidiens. ChatGPT est l’une des dernières évolutions en la matière. La révolution IA est en marche…
Un agent conversationnel
Fin 2022, l’apparition d’un nouveau robot conversationnel a fait beaucoup de bruit : ChatGPT a été créé par l’entreprise américaine d’intelligence artificielle Open AI, dont le PDG est Sam Altman. Open AI était déjà à l’origine de divers logiciels d’intelligence artificielle, tel que, par exemple, DALL-E, qui crée des images à partir d’une description écrite qui lui est fournie. Avec ChatGPT, elle surgit dans le monde textuel.
La rédaction de textes et de contenus
ChatGPT a pour objectif de pouvoir répondre à toutes nos requêtes : il est en effet capable de répondre à nos questions par une information très précise, de rédiger un texte selon nos attentes, qu’il s’agisse d’un texte fictif inventé de toutes pièces, d’une lettre de motivation, d’une dissertation, de nous donner une recette de cuisine, de corriger les fautes de nos écrits en langue étrangère ou même des lignes de codes, … les possibilités sont sans fin. Et elles sont pour l’instant gratuites en ce qui concerne la version de base. OpenAI a en effet lancé, le 1er février, ChatGPT Plus, qui permet, pour 20 dollars par mois, d’avoir accès à une version accélérée et disponible à tout moment, permettant d’éviter les nombreuses périodes de saturation qui rendent le site inaccessible.
La particularité de ce robot conversationnel est celle de pouvoir répondre à ces demandes dans une langue que l’on comprend avec une capacité rédactionnelle qui est véritablement bluffante. Contrairement à Siri ou Alexa, avec qui les conversations arrivent rapidement au bout de leurs capacités, il est possible d’avoir avec ChatGTP une véritable discussion.
Le modèle de langage (Large Language Model) : GPT 3.5
Afin de parvenir à ce résultat, Open AI a développé ce qu’on appelle un « LLM », c’est-à-dire un Large Language Model : un modèle de langage qui vise à imiter le langage humain. Le modèle utilisé à ce jour est GPT 3.5 (pour « Generative Pre-trained Transformer 3.5 »), qui est l’un des plus performants qui soient. Et Open AI prépare déjà le modèle suivant : GPT 4. Afin de parvenir à un tel résultat, les développeurs de GPT 3.5 sont partis d’une incroyable quantité de textes publiés sur internet. Cela lui permet de reproduire de façon impressionnante et trompeuse le langage humain. C’est là tant sa force que sa faiblesse.
En effet, si ChatGPT nous facilite de nombreuses tâches, la qualité du résultat fourni n’est pas irréprochable et les conséquences de ses erreurs peuvent conduire à une véritable désinformation. De plus, si cette nouvelle technologie semble au premier abord simple et très utile, annonçant l’avènement du Web 4.0, de nombreuses questions se posent en termes de propriété intellectuelle, de protection des données personnelles et de cybersécurité.
Une efficacité concurrente des moteurs de recherche
L’apparition et le succès de ChatGPT posent la question de l’intérêt des moteurs de recherche dans les années à venir. En effet, à la différence d’un moteur de recherche, ChatGPT ne fournit pas une liste de liens pouvant apporter une réponse à notre recherche, mais une réponse donnée. Le robot conversationnel a en effet déjà ingéré les connaissances de bases de données importantes telles que Wikipédia, par exemple, ce qui lui permet de fournir directement une réponse.
Une intelligence artificielle remplaçant les humains ?
De plus, le fait de pouvoir échanger avec lui permet d’obtenir plus facilement les réponses à nos questions que lorsqu’il convient de passer par un moteur de recherche : en effet, les discussions avec ChatGPT permettent d’obtenir, en quelques phrases échangées, la réponse à notre question, tandis que la recherche par mots clés des moteurs de recherche aurait pris un temps bien plus considérable. Il est donc bien plus efficace qu’un humain pour traiter un grand nombre de données.
Cela pose la question de savoir si les robots conversationnels à venir auront vocation à remplacer l’humain dans certains emplois, dévalorisant ainsi le capital humain, ou au contraire à l’assister pour le rendre plus performant et ainsi, à le revaloriser par une modification du travail concerné.
L’intégration de ChatGPT dans le moteur de recherche Bing
C’est pourquoi Microsoft a conclu un partenariat avec OpenAI en investissant 10 milliards de dollars, afin d’intégrer ChatGPT à son moteur de recherche Bing. Cela permet de relancer Bing sur le marché car Google est bien loin devant. À la suite de cela, les concurrents de Microsoft se sont eux aussi lancés dans la course : le 6 février 2022, Google a dévoilé Bard, son propre robot conversationnel intégré au moteur de recherche, tandis que Baidu, l’équivalent chinois de Google, a annoncé le lancement d’Ernie Bot. Au vu des premières versions dévoilées par Google et Microsoft, la réponse à la recherche serait partagée entre celle apportée par le robot conversationnel et les liens tels qu’on les connaît pour l’instant. Il semble donc que les grands groupes tentent d’intégrer les robots conversationnels à leurs moteurs de recherche avant de se laisser dévorer par ces nouvelles intelligences artificielles.
Découvrir l’articleLa propriété intellectuelle
ChatGPT a été développé et nourri à partir de bases de données disponibles sur internet et ce sont ces informations qui lui permettent de fournir ses réponses. Pour autant, lorsqu’il répond aux questions qui lui sont posées, il ne donne pas ses sources. Il fournit des informations d’une manière qui peut laisser penser qu’elles sont issues de ses propres recherches. Cela pose plusieurs questions, et notamment celle-ci : à qui appartient le texte généré (créé ou réarrangé) par l’IA ? Qui détient la propriété intellectuelle (et plus spécifiquement les droits d’auteurs) ? Est-ce l’IA ? La réponse semble être négative, puisqu’une IA n’a pas de droits. Est-ce celui qui a posé la question ? Pour que ce soit le cas, il faudrait démontrer que cette personne a eu une part de création importante dans la génération de ce texte, mais le fait que ChatGPT soit entraîné sur une quantité astronomique de textes et que l’utilisateur pose, lui, une simple question, semble permettre de dire que cela n’arrivera pas. Sont-ce alors les auteurs dont s’est inspirée l’IA ? Comment pourrait-on leur attribuer ces droits alors que le robot ne cite pas ses sources ?
Plagiat et contrefaçon
Faut-il alors parler de plagiat ou de contrefaçon ? Le plagiat est réprimé au titre d’un délit par le Code de la propriété intellectuelle (articles L 335-2 et suivants, articles L 623-32 et suivants, articles L 613-3 et suivants et articles L 716-9 et suivants). Et si la question n’a pas encore été posée devant un tribunal à propos de ChatGPT, elle l’a déjà été à propos d’autres IA, bien qu’aucune réponse juridique claire n’ait pour l’heure été donnée par un tribunal : la question s’est posée concernant des IA génératrices d’images ou de code. Il est donc possible d’envisager plusieurs possibilités mais une réponse explicite de la part de nos juridictions serait nécessaire, en attendant une indispensable règlementation de ces nouvelles IA.
Une autre réponse à envisager pour protéger les droits d’auteur pourrait être celle de la rémunération par les IA des auteurs des sources utilisées. C’est ce qui pourrait justifier un abandon de la gratuité de ces services.
Les implications en matière de RGPD :
Pour le moment, ChatGPT est un service gratuit. Cependant, il est désormais connu de tous que si le service est gratuit, c’est que l’utilisateur le paye en réalité avec ses données. Et dans le cas de ChatGTP, le service coûte cher…
Protection des données personnelles : le droit applicable
En matière de protection des données, les questions qui commencent à apparaître sont nombreuses : tout d’abord, la question du droit applicable. En effet, à la lecture de la politique de confidentialité de ChatGPT, il semble qu’OpenAI ne se soumette qu’au droit Californien et aux juridictions californiennes. Les données récoltées concernant les individus étrangers à la Californie y sont transférées directement. Il semble alors inenvisageable que cela ne pose pas de problème à court ou moyen terme : le développement de la protection des données personnelles, notamment au sein de l’Union européenne (UE), avec l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD) et son influence hors UE semble annoncer une impérative soumission d’OpenAI au RGPD sous peine de ne plus pouvoir mettre ChatGPT en service sur ce territoire.
Il faudra alors que l’IA se mette en conformité avec les différents principes du Règlement, et il semble que cela ne se fera pas sans difficultés au vu de l’état actuel des choses.
Découvrez l’Artificial Intelligence Act (IA Act).
ChatGPT vs. RGPD
Concernant la mise en œuvre des différents principes de la protection des données personnelles : divers principes doivent être respectés, et notamment :
– Le principe de minimisation : il signifie que seules les données adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées peuvent être collectées, pas plus.
– Le principe de transparence : l’utilisateur doit être informé que ses données sont collectées et de l’usage qui en est ou qui en sera fait, afin qu’il soit en mesure de savoir si ce traitement peut ou non lui causer un dommage. Ce principe semble être respecté en ce que l’IA demande bien le consentement au traitement des données et explique sur sa page « privacy » quelles sont les données concernées et quel traitement en sera fait, bien qu’il puisse être reproché à OpenAI de rester très évasif sur le traitement, par exemple sur les tiers qui pourront avoir accès aux données.
– Le traitement loyal des données : il s’agit de demander le consentement de l’utilisateur à la collecte des données, de ne pas le faire sans l’en informer, ce qui ne pose pas de problème concernant les cookies. En revanche, il se passe totalement de notre autorisation pour ce qui est de récolter les informations contenues dans les discussions que nous pouvons avoir avec l’IA, ce qui constitue un problème majeur.
– Le traitement licite des données : il s’agit de collecter et de traiter les données dans le respect des règles applicables. Là se poseront plus de problèmes puisque, pour le moment, le droit appliqué semble être le seul droit californien, à l’exclusion du RGPD, ce qui ne permet pas d’offrir aux citoyens de l’UE la protection qui leur est normalement attribuée grâce au RGPD. Selon ce règlement, le traitement n’est licite qu’à la condition, soit que l’utilisateur ait consenti au traitement de ses données, soit que le traitement soit nécessaire à l’un des motifs qu’il énumère.
– Le principe d’exactitude : les données personnelles utilisées doivent être exactes et, dans la mesure du possible, mises à jour. Il n’est pas à exclure que des gestionnaires de traitements récupèrent des données personnelles grâce à ChatGPT. Comment alors s’assurer de la véracité et de l’exactitude de ces données ?
Découvrez les décisions juridiques prises à l’encontre de ChatGPT.
L’exercice des droits relatifs à la protection des données personnelles
Dans un premier temps, deux points majeurs doivent être soulevés :
– D’une part, il faut faire une distinction entre les utilisateurs californiens et les autres. La politique de confidentialité de ChatGPT énumère expressément des droits au profit des californiens et le moyen de les exercer, mais pour les autres, rien. Que faut-il en déduire ? Les utilisateurs non californiens semblent privés de beaucoup de droits.
– D’autre part, il convient de distinguer les données collectées par le biais des cookies de celles collectées au cours des conversations avec le robot. En effet, ChatGPT demande à ses utilisateurs leur consentement à la collecte des cookies, mais concernant les autres données… rien. L’IA se sert sans demander l’avis de quiconque.
Les droits
Dans un second temps, d’autres questions plus spécifiques se posent pour différents droits protégés par le RGPD :
– Le droit à l’oubli : c’est le droit, pour une personne, de demander la suppression des données collectées la concernant. Ce droit, que l’on appelait auparavant « droit d’effacement », a pris une ampleur particulière avec l’arrêt rendu par la Cour de Justice de l’Union Européenne (CJUE) le 13 mai 2014, Google Spain c. Costeja Gonzales, qui fait prévaloir la protection des données personnelles face à l’une des 5 entités qui constituent les GAFAM : Google, Amazon, Facebook (aujourd’hui Meta), Apple et Microsoft. Et cette décision était alors intervenue alors même que le RGPD n’existait pas encore et que Google n’était pas soumis au respect de ce droit à l’oubli. Ainsi, bien que ChatGPT n’affirme pas se soumettre au RGPD, il semble qu’il sera tout de même possible de faire valoir ce droit devant la CJUE.
– Le RGPD offre également un droit à la rectification de ses données personnelles. Dans la mesure où ChatGPT se nourrit des informations qui lui ont été fournies ou qui lui seront soumises par la suite, comment sera-t-il possible d’exercer ce droit en sachant que ces informations peuvent être fournies pas des utilisateurs autres que celui qui est concerné ? Et ce droit pourra-t-il véritablement être exercé (tout comme le droit à l’oubli) concernant les données collectées jusqu’à aujourd’hui, c’est-à-dire avant que le respect du RGPD ne soit imposé à OpenAI ?
– Le droit de ne pas être soumis à une décision automatisée : ce droit permet à toute personne de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, lorsque cette décision produit à son égard des effets juridiques ou l’affecte de façon significative. Sur ce point, la question commence déjà à se poser de l’utilisation de ChatGPT en matière judiciaire : un premier cas d’utilisation a été relevé en Colombie, où un juge s’est fondé en partie sur la réponse apportée par l’IA à sa question pour rendre sa décision. Certes, la décision n’est pas exclusivement fondée sur la réponse fournie par ChatGPT, mais la question se pose de savoir si cela ne pourra pas être le cas dans le futur (ou ne l’a pas déjà été), au vu du manque de réglementation actuel.
Les conséquences en matière de cybersécurité :
La génération de nouvelles souches de logiciels malveillants
Tout d’abord, le robot conversationnel permet à des personnes malintentionnées d’être à l’origine de cyberattaques alors même qu’elles n’ont aucune compétence en matière de cybersécurité. En effet, étant capable de créer du code, il peut générer des codes malveillants si cela lui est demandé. Fin décembre 2022, un fil de discussion a d’ailleurs vu le jour sur un forum de piratage : « ChatGPT – Benefits of malware » (qui peut être traduit par « ChatGPT – Avantages des logiciels malveillants »). Sur ce fil de discussion, il a été révélé qu’il était possible d’utiliser l’IA pour recréer des souches de logiciels malveillants et des techniques grâce aux articles publiés en ligne relatifs aux logiciels malveillants qui peuvent faire partie de ceux sur lesquels il a été entraîné.
L’amélioration des techniques de phishing
Ensuite, l’utilisation de ChatGPT pourrait également être détournée dans le but de rédiger des mails de phishing de meilleure qualité et donc plus crédibles (le phishing, ou « hameçonnage », étant une technique d’ores et déjà courante de cyberattaque, par lequel le fraudeur se fait passer pour quelqu’un de confiance, comme notre banque, afin de nous demander des informations confidentielles, de valider une opération bancaire, etc). En effet, aujourd’hui, nombre d’entre eux sont reconnaissables à leurs tournures de phrases peu crédibles et à leurs fautes d’orthographe. Sans ces éléments, les attaques par phishing seront bien plus difficiles à déceler.
Les attaques par empoisonnement
Enfin, de nouvelles cyberattaques voient le jour, telle que l’attaque dite par « empoisonnement ». Celle-ci consiste à introduire des données corrompues dans une IA, soit au moment de son développement, soit lors de sa phase d’apprentissage, ce qui viendra ensuite modifier son comportement. Or, ChatGPT a été entraîné sur des données présentes sur internet et il ne fait aucun doute que nombre d’entre elles ne sont pas moralement irréprochables. De plus, les connaissances de ChatGPT s’arrêtent à sa dernière mise à jour (il n’a pas connaissance des évènements les plus récents), ce qui constitue une limite à laquelle OpenAI devra remédier. Le risque sera alors que des personnes malveillantes introduisent des données corrompues sur les bases de données sur lesquelles ChatGPT sera susceptible d’être entraîné, afin qu’il puisse par la suite les aider à mettre en place de nouvelles cyberattaques.