By visiting our site, you agree to our privacy policy regarding cookies, tracking statistics, etc.
Ce rapport, réalisé au cours de l’été 2024, examine l’utilisation accrue des chatbots d’IA dans le monde universitaire à la suite du lancement de ChatGPT en 2022 et la réponse des établissements d’enseignement par le biais d’outils de détection de l’IA. Il examine l’efficacité variable de ces outils dans l’identification du contenu généré par l’IA, avec des questions telles que les faux positifs et les faux négatifs. Le rapport met également en évidence les préoccupations éthiques liées à la protection de la vie privée, à la précision et à l’utilisation de l’IA dans l’éducation. Certaines institutions reconsidèrent l’utilisation d’outils de détection, optant plutôt pour une intégration responsable de l’IA dans les programmes d’études.
Ce guide s’adresse principalement aux universités et autres établissements d’enseignement supérieur qui participent au programme de séminaires sur la cybersécurité de Google.org. Il s’adresse aux champions de la faculté et aux champions EDI de ces programmes. Au-delà des séminaires de cybersécurité Google.org, ce guide peut également être utile à d’autres organisations impliquées dans l’enseignement pratique de la cybersécurité.
Le lancement de ChatGPT en 2022 a suscité un intérêt mondial pour l'intelligence artificielle (IA) et a conduit à une utilisation généralisée des chatbots d'IA, y compris par les étudiants. À la suite de l'émergence des chatbots d'IA, les établissements d'enseignement supérieur se sont inquiétés de "l'utilisation déloyale de contenus générés par l'intelligence artificielle dans un environnement universitaire "1 et de "l'originalité et l'adéquation du contenu généré par le chatbot "2.
Pour détecter et gérer l'utilisation inappropriée ou déloyale de ces chatbots, les outils de détection de l'IA ont gagné en popularité, les outils de plagiat standard, tels que TurnItIn, s'orientant vers la détection des contenus générés par l'IA à des degrés d'efficacité et à des prix variables.3 La plupart des outils de détection de l'IA dans les universités sont intégrés dans des plateformes d'éducation plus larges, telles que Moodle, Canvas, Blackboard, Brightspace, Schoology, ou Sakai.4
Les outils de détection de l'IA identifient le texte généré en utilisant des modèles de correspondance plutôt qu'en le comparant à une base de données, comme le font les vérificateurs de plagiat traditionnels. Les modèles linguistiques sont formés sur de grandes quantités de données textuelles afin d'apprendre des règles linguistiques probabilistes, qu'ils utilisent pour créer de nouveaux contenus. Cependant, le texte généré présente souvent des schémas prévisibles, tels que des structures de phrases cohérentes, l'utilisation excessive de certaines conjonctions et d'un certain vocabulaire, et des longueurs de phrases ou de paragraphes prévisibles. Les outils de détection visent à repérer ces modèles et peuvent également incorporer des contrôles de plagiat traditionnels pour identifier le texte qui pourrait avoir été reproduit directement à partir des données d'entraînement du modèle.5
Lorsque les outils de détection de l'IA ont été publiés pour la première fois, les établissements d'enseignement supérieur se sont empressés de les intégrer dans les plateformes d'enseignement. Cependant, la plupart des outils de détection de l'IA, si ce n'est tous, peuvent être contournés avec suffisamment de temps et d'efforts.6 Certains établissements d'enseignement supérieur reviennent donc sur leur décision d'utiliser des détecteurs d'IA. En 2023, Vanderbilt, Michigan State, Northwestern et l'Université du Texas à Austin ont désactivé leurs détecteurs d'IA Turnitin, citant les problèmes d'efficacité évoqués plus haut.7 D 'autres établissements d'enseignement sont susceptibles de faire de même, car il se peut que les outils de détection causent plus de problèmes qu'ils n'en résolvent.8 Certains établissements universitaires ne se contentent pas de désactiver les outils de détection d'IA, mais trouvent des moyens d'incorporer les LLM de manière éthique et productive dans leurs programmes d'études.9
En outre, de nouveaux outils "humanisants" ont été publiés pour permettre aux utilisateurs de LLM de contourner les outils de détection de l'IA en "reformulant les phrases, en modifiant les structures et en incorporant un vocabulaire varié", ce qui réduit considérablement la probabilité de détection de l'IA.10 Les premières recherches suggèrent que les outils de paraphrase compliquent considérablement la détection de l'IA.11 Par exemple, le Washington Post a constaté que Turnitin a du mal à identifier le contenu généré par l'IA lorsque le texte mélange du contenu humain et du contenu généré par l'IA par le biais d'outils de paraphrase.12
Bien que Turnitin ait ajouté à son outil de détection de l'IA une nouvelle fonction de détection de laparaphrase13 , ces réactions créent un contexte de marché difficile pour la détection de l'IA, d'autres entreprises s'orientant vers d'autres modèlescommerciaux14 ou fermant leursportes15.
Une sélection des principaux outils de détection de l'IA est présentée ci-dessous par ordre alphabétique. Nous avons également inclus des informations accessibles au public concernant l'efficacité de la détection, l'intégration de la plateforme d'éducation, le prix (en USD) et la date de sortie et/ou de mise à jour. Notez que la plupart des outils de détection d'IA listés ci-dessous sont principalement efficaces contre ChatGPT-3.5 uniquement.
Outil de détection de l'IA | Y a-t-il une intégration dans les plates-formes éducatives ? | Prix (USD) | Date de publication/mise à jour |
Compilation | Oui : Moodle, Brightspace, Canvas, Microsoft Teams, Blackboard, Open LMS | Aucune information n'a été trouvée16 | Février 2023 |
Contenu à l'échelle | Oui : informations limitées | 49 $/mois17 | Pas d'information |
Détecteur de contenu AI | Pas d'information | Aucune information n'a été trouvée | 202318 |
Copyleaks | Oui : Moodle, Canvas, Blackboard, Brightspace, Schoology, Sakai | 7,99 $ - 13,99 $/mois19 | janvier 2023 |
Crossplag | Pas d'information | 7 à 100 $/mois20 | janvier 2023 |
Détecter GPT | Pas d'information | 7 $ - 29 $/mois21 | Pas d'information |
Duplichecker | Pas d'information | Entre 110 et 2000 dollars par an22 | 2024 |
Allez Winston | Pas d'information | 12 $ - 32 $/mois23 | Février 2023 |
GPT-Zéro | Oui : Canvas, Coursify.me, K16 solutions, NewsGuard | 10 $ - 23 $/mois24 | janvier 2023 |
L'originalité | Oui : Moodle, Scribbr | 14,95 $ - 30 $/mois25 | Novembre 2022 |
Détecteur de plagiat (détection par l'IA) | Pas d'information | De 110 à 330 dollars par an26 | Pas d'information |
Quillbot | Oui : aucune information n'a été rendue publique sur les plates-formes concernées. | 0 $ - 8,33 $/mois27 | Pas d'information |
L'aubier | Manque de clarté | 0-12 $/mois28 | janvier 2023 |
Scispace | Probable, mais manque d'informations | 0 à 8 $/mois29 | Pas d'information |
Turnitin | Oui : Brightspace, Scribbr | 3 $/étudiant/année30 | avril 2023 |
IA indétectable | Pas d'information | 5 $ - 14,99 $/mois31 | mai 2023 |
Wordtune | Probable, mais manque d'informations | 0 à 9,99 $/mois32 | janvier 2023 |
Détecteur d'IA de l'écrivain | Pas d'information | 0-18 $/mois33 | Pas d'information |
ZeroGPT | Oui : aucune information n'a été rendue publique sur les plates-formes concernées. | 0 $ - 18,99 $/mois34 | janvier 2023 |
Dans le contexte des outils de détection de l'IA, on parle de faux positifs lorsqu'un outil de détection de l'IA identifie à tort un contenu soumis comme étant généré par l'IA. Certaines études indiquent que les outils de détection de l'IA ont un taux élevé de faux positifs et que seuls quelques outils de détection de l'IA ont des taux de détection de faux positifs significativement bas.35 Dans un contexte universitaire, cela peut signifier qu'un travail d'étudiant est identifié à tort comme étant généré par l'IA, alors qu'il est en fait généré par l'homme. Des différences ont également été constatées en fonction du modèle d'IA utilisé pour générer le texte soumis au test de l'outil de détection de l'IA, et vice-versa, les résultats variant d'une étude à l'autre.36 En outre, les contenus rédigés par des personnes dont l'anglais n'est pas la langue maternelle sont plus susceptibles d'être classés à tort comme étant générés par l'IA, ce qui constitue évidemment un problème pour les établissements d'enseignement accueillant des étudiants d'origines diverses.37
Dans le contexte des outils de détection de l'IA, on parle de faux négatifs lorsqu'un outil de détection de l'IA ne parvient pas à identifier le contenu soumis comme étant généré par l'IA. Certains outils ont fait preuve d'une faible sensibilité, identifiant correctement à peine 15 % des échantillons soumis comme étant générés par l'IA38 , tandis que d'autres obtiennent des résultats presque parfaits dans la classification des contenus rédigés par des humains, ne classant à tort que 3 % des échantillons générés par l'IA.39 En général, les résultats varient considérablement en termes de précision en fonction de l'outil de détection de l'IA utilisé. Selon une étude, seuls deux des principaux outils de détection de l'IA ont correctement classé les 126 échantillons comme étant soit générés par l'IA, soit générés par l'homme.40 D'autres chercheurs affirment que les outils de détection de l'IA produisent davantage de faux négatifs lorsqu'ils analysent un langage plus sophistiqué.41
En général, l'efficacité des outils de détection de l'IA varie en fonction de l'outil utilisé et du modèle utilisé. Une étude a montré que les outils de détection de l'IA sont plus efficaces avec le contenu ChatGPT-3.5, et moins avec ChatGPT-4, à l'exception de Copyleaks, Turnitin et Originality.ai qui ont une précision supérieure à 83 % dans la détection du contenuChatGPT-442. Cette étude a conclu que "le statut gratuit ou payant d'un détecteur n'est pas un bon indicateur de sa précision",43 bien que des résultats contrastés (avec un échantillon de petite taille) suggèrent provisoirement que les outils de détection d'IA payants semblent être meilleurs que les outils de détection d'IA gratuits.44 Les études se concentrent aussi généralement sur l'efficacité des outils de détection d'IA contre ChatGPT, en ignorant les autres LLM. Cela peut s'expliquer par la plus grande popularité des modèles d'OpenAI par rapport à d'autres tels que Gemini, Mistral ou Command.
L'utilisation de chatbots d'IA dans le monde universitaire soulève d'importantes questions éthiques, à commencer par l'atteinte à la réputation des étudiants et des établissements d'enseignement supérieur. Pour les étudiants, le fait de ne pas divulguer l'utilisation d'un contenu généré par l'IA et de le faire passer pour le leur peut nuire à la poursuite de leurs études et à leur future carrière. De même, les universités peuvent être accusées de favoriser le plagiat, la tricherie et de ne pas respecter l'intégrité académique.
Toutefois, l'utilisation d'outils de détection de l'IA sans garanties appropriées suscite des préoccupations tout aussi importantes en matière de respect de la vie privée et de consentement, notamment en ce qui concerne les accords contractuels entre les universités et le fournisseur de l'outil. Il s'agit notamment de savoir ce qu'il advient du contenu téléchargé, comment il est stocké et quel est le consentement si le contenu téléchargé est utilisé dans les données d'entraînement futures.
En outre, comme nous l'avons vu dans la section précédente, les outils de détection de l'IA peuvent identifier à tort un contenu écrit par un être humain comme étant de l'IA (faux positifs) ou ne pas détecter un texte généré par l'IA (faux négatifs). La précision varie considérablement, certains outils détectant mieux le ChatGPT-3.5. Enfin, ils jouent au jeu du chat et de la souris avec des méthodes permettant d'échapper à la détection, notamment des logiciels qui génèrent spécifiquement des contenus conçus pour être indétectables par les outils standard de détection de l'IA45.
Les outils de détection de l'IA contribuent également à des débats plus larges sur l'accès, l'équité et l'impact environnemental. Les étudiants peuvent utiliser l'IA pour faciliter la traduction et la compréhension de leurs travaux, en particulier s'ils étudient dans un pays anglophone et s'ils sont issus d'un milieu non anglophone ou d'une autre minorité ayant historiquement moins de possibilités d'accéder à l'enseignement universitaire. Des problèmes d'accès se posent également en raison de la disponibilité commerciale des LLM ; les étudiants les plus aisés peuvent être en mesure de payer pour des modèles plus sophistiqués et/ou de faire passer leur travail par plusieurs LLM, ce qui signifie que les chances de détection diminuent considérablement.46
Le programme Google.org Cybersecurity Seminars soutient des séminaires sur la cybersécurité dans des universités sélectionnées et d'autres établissements d'enseignement supérieur éligibles en Europe, au Moyen-Orient et en Afrique, afin d'aider les étudiants à en savoir plus sur la cybersécurité et à explorer des voies dans ce domaine. Le programme soutient activement l'expansion de la formation à la cybersécurité dans les universités, afin de constituer la main-d'œuvre diversifiée nécessaire pour aider les organisations les plus vulnérables à prévenir les cyberattaques potentielles. Il aborde également les nouveaux risques liés à l'intelligence artificielle (IA), en permettant aux étudiants de comprendre les changements apportés par l'IA au paysage des cybermenaces et en les aidant à intégrer efficacement l'IA dans des mesures pratiques de cybersécurité.
Les universités participantes doivent promouvoir activement l'égalité, la diversité et l'inclusion dans leurs programmes. Elles doivent encourager la participation active de personnes d'origines diverses et créer un environnement éducatif ouvert à tous, afin d'enrichir l'expérience d'apprentissage globale et de renforcer la communauté de la cybersécurité.
Chargement…