By visiting our site, you agree to our privacy policy regarding cookies, tracking statistics, etc.
Este informe, investigado durante el verano de 2024, examina el aumento del uso de chatbots de IA en el mundo académico tras el lanzamiento de ChatGPT en 2022 y la respuesta de las instituciones educativas mediante herramientas de detección de IA. Analiza la eficacia variable de estas herramientas a la hora de identificar los contenidos generados por la IA, con cuestiones como los falsos positivos y los falsos negativos. El informe también destaca las preocupaciones éticas en torno a la privacidad, la precisión y el uso de la IA en la educación. Algunas instituciones están reconsiderando el uso de herramientas de detección, optando en su lugar por integrar la IA en los planes de estudio de forma responsable.
Esta guía está destinada principalmente a las universidades y otras instituciones de enseñanza superior que participan en el Programa de Seminarios sobre Ciberseguridad de Google.org. Está dirigida a los Faculty Champions y EDI Champions de estos programas. Más allá de los Seminarios sobre Ciberseguridad de Google.org, esta guía también puede ser relevante para otras organizaciones implicadas en la educación práctica sobre ciberseguridad.
El lanzamiento de ChatGPT en 2022 generó un interés mundial por la inteligencia artificial (IA) y condujo a un uso generalizado de los chatbots de IA, incluso por parte de los estudiantes. Tras la aparición de los chatbots de IA, las instituciones de enseñanza superior expresaron su preocupación por el "uso desleal de contenidos generados por inteligencia artificial en un entorno académico "1 y por la "originalidad y adecuación de los contenidos generados por el chatbot "2.
Para detectar y gestionar el uso inapropiado o injusto de estos chatbots, las herramientas de detección de IA han aumentado su popularidad, y las herramientas estándar contra el plagio, como TurnItIn, han pasado a detectar contenidos generados por IA con distintos grados de eficacia y a distintos precios.3 La mayoría de las herramientas de detección de IA en el mundo académico están integradas en plataformas educativas más amplias, como Moodle, Canvas, Blackboard, Brightspace, Schoology o Sakai.4
Las herramientas de detección de IA identifican el texto generado mediante la concordancia de patrones en lugar de compararlo con una base de datos, como hacen los comprobadores de plagio tradicionales. Los modelos lingüísticos se entrenan con grandes cantidades de datos de texto para aprender reglas lingüísticas probabilísticas, que utilizan para crear nuevos contenidos. Sin embargo, el texto generado suele mostrar patrones predecibles, como estructuras de frases coherentes, uso excesivo de determinadas conjunciones y vocabulario, y longitudes de frases o párrafos previsibles. Las herramientas de detección pretenden detectar estos patrones y también pueden incorporar comprobaciones tradicionales de plagio para identificar el texto que podría haber sido reproducido directamente a partir de los datos de entrenamiento del modelo.5
Cuando se lanzaron por primera vez las herramientas de detección de IA, las instituciones de enseñanza superior se apresuraron a integrarlas en las plataformas educativas. Sin embargo, la mayoría de las herramientas de detección de IA, si no todas, pueden eludirse con el tiempo y el esfuerzo suficientes.6 Por ello, algunas instituciones de enseñanza superior están dando marcha atrás en su decisión de utilizar detectores de IA. En 2023, Vanderbilt, Michigan State, Northwestern y la Universidad de Texas en Austin desactivaron sus detectores de IA de Turnitin, citando los problemas de eficacia comentados anteriormente.7 Es probable que otras instituciones educativas sigan su ejemplo, ya que puede que las herramientas de detección estén causando más problemas de los que resuelven.8 Algunas instituciones académicas no sólo están desactivando las herramientas de detección de IA, sino que están encontrando formas de incorporar los LLM de forma ética y productiva a sus planes de estudios.9
Además, se han lanzado nuevas herramientas "humanizadoras" que permiten a los usuarios de LLM eludir las herramientas de detección de IA mediante "la reformulación de frases, la alteración de estructuras y la incorporación de vocabulario variado", lo que reduce significativamente la probabilidad de detección de IA.10 Las primeras investigaciones sugieren que las herramientas de parafraseo complican significativamente la detección de IA.11 Por ejemplo, el Washington Post descubrió que Turnitin tiene dificultades para identificar el contenido generado por IA cuando el texto mezcla contenido humano y generado por IA a través de herramientas de parafraseo.12
Aunque Turnitin lanzó una nueva función de detección de paráfrasis de IA a su herramienta de detección de IA,13 estas respuestas crean un contexto de mercado difícil para la detección de IA, con otras empresas pivotando hacia otros modelos de negocio,14 o cerrando.15
A continuación enumeramos por orden alfabético una selección de las principales herramientas de detección de IA. También hemos incluido información de acceso público sobre la eficacia de la detección, la integración en la plataforma educativa, el precio (en USD) y la fecha de lanzamiento y/o actualización. Tenga en cuenta que la mayoría de las herramientas de detección de IA enumeradas a continuación son principalmente eficaces sólo contra ChatGPT-3.5.
Herramienta de detección de IA | ¿Existe integración en las plataformas educativas? | Precios (USD) | Fecha de publicación/actualización |
Compilatio | Sí: Moodle, Brightspace, Canvas, Microsoft Teams, Blackboard, Open LMS | No se ha encontrado información16 | Febrero de 2023 |
Contenidos a escala | Sí: información limitada | 49 $/mes17 | No hay información |
Detector de contenidos AI | No hay información | No se ha encontrado información | 202318 |
Copyleaks | Sí: Moodle, Canvas, Blackboard, Brightspace, Schoology, Sakai | $7.99-$13.99/mes19 | Enero de 2023 |
Crossplag | No hay información | $7-$100/mes20 | Enero de 2023 |
Detectar GPT | No hay información | 7-$29/mes21 | No hay información |
Duplichecker | No hay información | Entre 110 y 2000 dólares al año22 | 2024 |
Ir Winston | No hay información | 12-$32/mes23 | Febrero de 2023 |
GPT-Cero | Sí: Canvas, Coursify.me, K16 solutions, NewsGuard | 10-$23/mes24 | Enero de 2023 |
Originalidad | Sí: Moodle, Scribbr | 14,95-$30/mes25 | Noviembre de 2022 |
Detector de plagio (detección AI) | No hay información | 110-330 $/año26 | No hay información |
Quillbot | Sí: No hay detalles disponibles públicamente sobre qué plataformas | $0-$8,33/mes27 | No hay información |
Sapling | Poco claro | $0-$12/mes28 | Enero de 2023 |
Scispace | Es probable, sin embargo la falta de información | $0-$8/mes29 | No hay información |
Turnitin | Sí: Brightspace, Scribbr | 3 $/estudiante/año30 | Abril de 2023 |
IA indetectable | No hay información | $5-$14.99/mes31 | Mayo de 2023 |
Wordtune | Es probable, sin embargo la falta de información | $0-$9,99/mes32 | Enero de 2023 |
Detector de IA para escritores | No hay información | $0-$18/mes33 | No hay información |
ZeroGPT | Sí: No hay detalles disponibles públicamente sobre qué plataformas | $0-$18,99/mes34 | Enero de 2023 |
En el contexto de las herramientas de detección de IA, los falsos positivos se producen cuando una herramienta de detección de IA identifica incorrectamente el contenido enviado como generado por IA. Algunos estudios indican que las herramientas de detección de IA tienen una elevada tasa de falsos positivos, y sólo unas pocas herramientas de detección de IA tienen tasas significativamente bajas de detección de falsos positivos.35 En un entorno académico, esto puede significar marcar incorrectamente el trabajo de los estudiantes como generado por IA, cuando en realidad es generado por humanos. También se han encontrado diferencias en función del modelo de IA que se utilice para generar el texto enviado para que la herramienta de detección de IA lo pruebe, y viceversa, con resultados variables en los distintos estudios. 36 Además, es más probable que los contenidos elaborados por hablantes de inglés no nativos se clasifiquen incorrectamente como generados por IA, lo que obviamente supone un problema para las instituciones educativas con estudiantes de diversos orígenes.37
En el contexto de las herramientas de detección de IA, los falsos negativos se producen cuando una herramienta de detección de IA no consigue identificar el contenido enviado como generado por IA. Algunas herramientas han mostrado una baja sensibilidad, identificando correctamente apenas el 15% de las muestras enviadas como generadas por IA,38 mientras que otras demuestran una puntuación casi perfecta en la clasificación de contenidos escritos por humanos, clasificando erróneamente sólo el 3% de las muestras generadas por IA.39 En general, los resultados varían mucho en precisión dependiendo de qué herramienta de detección de IA se utilice. Un estudio sugiere que sólo dos de las principales herramientas de detección de IA clasificaron correctamente las 126 muestras como generadas por IA o por humanos.40 Otros investigadores afirman que las herramientas de detección de IA producen más falsos negativos cuando analizan un lenguaje más sofisticado.41
En general, la eficacia de las herramientas de detección de IA varía en función de qué herramienta se utilice y contra qué modelo. Un estudio descubrió que las herramientas de detección de IA son más eficaces con el contenido ChatGPT-3.5, y menos con el ChatGPT-4, excepto Copyleaks, Turnitin y Originality.ai, que tuvieron una precisión superior al 83% en la detección del contenido ChatGPT-4.42 Este estudio concluyó que "la gratuidad o el pago de un detector no es un buen indicador de su precisión",43 aunque los resultados contrastados (con un tamaño de muestra pequeño) sugieren provisionalmente que las herramientas de detección de IA de pago parecían ser mejores que las herramientas de detección de IA gratuitas.44 Los estudios también se centran generalmente en la eficacia de las herramientas de detección de IA contra ChatGPT, ignorando otros LLM. Esto puede deberse a la mayor popularidad de los modelos de OpenAI en comparación con otros como Gemini, Mistral o Command.
El uso de chatbots de IA en el mundo académico plantea importantes cuestiones éticas, empezando por el daño a la reputación tanto de los estudiantes como de las instituciones de enseñanza superior. Para los estudiantes, no revelar el uso de contenidos generados por la IA y hacerlos pasar por suyos puede perjudicar su formación continua y sus futuras carreras. Del mismo modo, las universidades pueden enfrentarse a acusaciones de permitir el plagio, hacer trampas y no mantener la integridad académica.
Sin embargo, el uso de herramientas de detección de IA sin las salvaguardias adecuadas genera preocupaciones igualmente importantes en torno a la privacidad y el consentimiento, especialmente en lo que respecta a los acuerdos contractuales entre las universidades y el proveedor de la herramienta. Dichas preocupaciones incluyen qué ocurre con el contenido cargado, cómo se almacena y el consentimiento si el contenido cargado se utiliza en futuros datos de entrenamiento.
Además, como se ha comentado en la sección anterior, las herramientas de detección de IA pueden identificar erróneamente contenido escrito por humanos como IA (falsos positivos) o no detectar texto generado por IA (falsos negativos). La precisión varía mucho, y algunas herramientas detectan mejor el ChatGPT-3.5. Por último, juegan al gato y al ratón con métodos para eludir la detección, incluido el software que genera específicamente contenidos diseñados para ser indetectables por las herramientas estándar de detección de IA.45
Las herramientas de detección de IA también contribuyen a debates más amplios en torno al acceso, la equidad y el impacto medioambiental. Es posible que los estudiantes utilicen la IA como apoyo para la traducción y la comprensión de los trabajos del curso, especialmente si estudian en un país de habla inglesa y proceden de un entorno no anglófono o minoritario con menos oportunidades históricas de acceder a la educación universitaria. Los problemas de acceso también surgen debido a la disponibilidad comercial de los LLM; los estudiantes más adinerados pueden ser capaces de pagar por modelos más sofisticados y/o alimentar su trabajo a través de múltiples LLM, lo que significa que las posibilidades de detección disminuyen significativamente.46
El Programa de Seminarios sobre Ciberseguridad de Google.org apoya cursos de seminarios sobre ciberseguridad en universidades seleccionadas y otras instituciones de educación superior elegibles de Europa, Oriente Medio y África, para ayudar a los estudiantes a aprender más sobre ciberseguridad y explorar vías en este campo. El programa apoya activamente la expansión de la formación en ciberseguridad en las universidades, para crear la mano de obra diversa necesaria para ayudar a las organizaciones más vulnerables a prevenir posibles ciberataques. También aborda los nuevos riesgos de la inteligencia artificial (IA), proporcionando a los estudiantes una comprensión de los cambios basados en la IA en el panorama de las ciberamenazas y ayudándoles a integrar eficazmente la IA en medidas prácticas de ciberseguridad.
Se espera que las universidades participantes promuevan activamente la igualdad, la diversidad y la inclusión dentro de sus programas. Deben fomentar una fuerte participación de personas de diversos orígenes y crear un entorno inclusivo para la educación, enriqueciendo así la experiencia general de aprendizaje y fortaleciendo la comunidad de la ciberseguridad.
Cargando…