Al visitar nuestro sitio, usted acepta política de privacidad sobre cookies, estadísticas de seguimiento, etc.
Solicite ahora el apoyo gratuito de nuestro Centro de Servicios de Ciberseguridad
Solicite apoyo gratuito en materia de ciberseguridad
Asista al Ransomware Defence Summer Bootcamp en Ámsterdam, junio 2026
Asista a nuestro curso de verano gratuito sobre defensa contra el ransomware
Inscríbase en el curso en línea en directo Fundamentos de la Ciberseguridad y AI
Infórmese en línea sobre los fundamentos de la ciberseguridad y AI
Este informe, investigado durante el verano de 2024, examina el creciente uso de chatbots de IA en el mundo académico tras el lanzamiento de ChatGPT en 2022 y la respuesta de las instituciones educativas mediante herramientas de detección de IA. Analiza la eficacia variable de estas herramientas a la hora de identificar contenidos generados por IA, con problemas como falsos positivos y falsos negativos. El informe también destaca las preocupaciones éticas en torno a la privacidad, la precisión y el uso de la IA en la educación. Algunas instituciones están reconsiderando el uso de herramientas de detección, optando en su lugar por integrar la IA en los planes de estudio de forma responsable.
Esta guía está destinada principalmente a las universidades y otras instituciones de enseñanza superior que participan en el Programa de Seminarios sobre Ciberseguridad de Google.org. Está dirigida a los Faculty Champions y EDI Champions de estos programas. Más allá de los Seminarios de Ciberseguridad de Google.org, esta guía también puede ser relevante para otras organizaciones implicadas en la educación práctica en ciberseguridad.
El lanzamiento de ChatGPT en 2022 generó un interés mundial por la inteligencia artificial (IA) y condujo a un uso generalizado de los chatbots de IA, incluso por parte de los estudiantes. Tras la aparición de los chatbots de IA, las instituciones de educación superior expresaron su preocupación por el "uso injusto de contenidos generados por inteligencia artificial en un entorno académico"1 y la "originalidad e idoneidad de los contenidos generados por el chatbot".2
Para detectar y gestionar el uso inapropiado o desleal de estos chatbots, las herramientas de detección de IA han ganado popularidad, y las herramientas estándar de plagio, como TurnItIn, han pasado a detectar contenidos generados por IA con distintos grados de eficacia y precios.3 La mayoría de las herramientas de detección de IA en el mundo académico están integradas en plataformas educativas más amplias, como Moodle, Canvas, Blackboard, Brightspace, Schoology o Sakai.4
Las herramientas de detección de IA identifican el texto generado mediante la concordancia de patrones en lugar de compararlo con una base de datos, como hacen los comprobadores de plagio tradicionales. Los modelos lingüísticos se entrenan con grandes cantidades de datos de texto para aprender reglas lingüísticas probabilísticas, que utilizan para crear nuevos contenidos. Sin embargo, el texto generado suele mostrar patrones predecibles, como estructuras de frases coherentes, uso excesivo de determinadas conjunciones y vocabulario, y longitudes predecibles de frases o párrafos. El objetivo de las herramientas de detección es detectar estos patrones y también pueden incorporar comprobaciones tradicionales de plagio para identificar textos que podrían haber sido reproducidos directamente a partir de los datos de entrenamiento del modelo.5
Cuando se lanzaron por primera vez las herramientas de detección de IA, las instituciones de enseñanza superior se apresuraron a integrarlas en las plataformas educativas. Sin embargo, la mayoría de las herramientas de detección de IA, si no todas, pueden eludirse con tiempo y esfuerzo.6 Por ello, algunas instituciones de enseñanza superior están dando marcha atrás en su decisión de utilizar detectores de IA. En 2023, Vanderbilt, Michigan State, Northwestern y la Universidad de Texas en Austin desactivaron sus detectores de IA de Turnitin, alegando los problemas de eficacia comentados anteriormente.7 Es probable que otras instituciones educativas sigan su ejemplo, ya que puede ocurrir que las herramientas de detección estén causando más problemas de los que resuelven.8 Algunas instituciones académicas no sólo están desactivando las herramientas de detección de IA, sino que están encontrando formas de incorporar los LLM de forma ética y productiva a sus planes de estudios.9
Además, se han lanzado nuevas herramientas "humanizadoras" que permiten a los usuarios de LLM eludir las herramientas de detección de IA mediante "la reformulación de frases, la alteración de estructuras y la incorporación de vocabulario variado", lo que reduce significativamente la probabilidad de detección de IA.10 Las primeras investigaciones sugieren que las herramientas de parafraseo complican considerablemente la detección de IA.11 Por ejemplo, el Washington Post descubrió que Turnitin tiene dificultades para identificar contenido generado por IA cuando el texto mezcla contenido humano y generado por IA mediante herramientas de parafraseo.12
Aunque Turnitin lanzó una nueva función de detección de paráfrasis AI a su herramienta de detección de AI,13 Tales respuestas crean un contexto de mercado difícil para la detección de IA, con otras empresas pivotando hacia otros modelos de negocio,14 o cierre.15
A continuación se incluye una selección de las principales herramientas de detección de IA por orden alfabético. También hemos incluido información de acceso público sobre la eficacia de la detección, la integración en plataformas educativas, el precio (en USD) y la fecha de lanzamiento y/o actualización. Tenga en cuenta que la mayoría de las herramientas de detección de IA enumeradas a continuación sólo son eficaces contra ChatGPT-3.5.
| Herramienta de detección de IA | ¿Hay integración en las plataformas educativas? | Precios (USD) | Fecha de publicación/actualización |
| Recopilación | Sí: Moodle, Brightspace, Canvas, Microsoft Teams, Blackboard, Open LMS | No se ha encontrado información16 | Febrero de 2023 |
| Contenidos a escala | Sí: información limitada | $49/mes17 | No hay información |
| Detector de contenidos AI | No hay información | No se ha encontrado información | 202318 |
| Copyleaks | Sí: Moodle, Canvas, Blackboard, Brightspace, Schoology, Sakai | $7.99-$13.99/month19 | Enero de 2023 |
| Crossplag | No hay información | $7-$100/month20 | Enero de 2023 |
| Detectar GPT | No hay información | $7-$29/mes21 | No hay información |
| Duplichecker | No hay información | $110-$2000/year22 | 2024 |
| Ir Winston | No hay información | $12-$32/month23 | Febrero de 2023 |
| GPT-Cero | Sí: Canvas, Coursify.me, K16 solutions, NewsGuard | $10-$23/month24 | Enero de 2023 |
| Originalidad | Sí: Moodle, Scribbr | $14.95-$30/month25 | Noviembre de 2022 |
| Detector de plagio (detección de IA) | No hay información | $110-$330/year26 | No hay información |
| Quillbot | Sí: no hay datos disponibles públicamente sobre qué plataformas | $0-$8.33/month27 | No hay información |
| Sapling | Poco claro | $0-$12/mes28 | Enero de 2023 |
| Scispace | Es probable, pero la falta de información | $0-$8/mes29 | No hay información |
| Turnitin | Sí: Brightspace, Scribbr | $3/estudiante/año30 | Abril de 2023 |
| IA indetectable | No hay información | $5-$14.99/month31 | Mayo de 2023 |
| Wordtune | Es probable, pero la falta de información | $0-$9.99/month32 | Enero de 2023 |
| Detector de IA para escritores | No hay información | $0-$18/mes33 | No hay información |
| ZeroGPT | Sí: no hay datos disponibles públicamente sobre qué plataformas | $0-$18.99/month34 | Enero de 2023 |
En el contexto de las herramientas de detección de IA, los falsos positivos se producen cuando una herramienta de detección de IA identifica incorrectamente el contenido enviado como generado por IA. Algunos estudios indican que las herramientas de detección de IA tienen una alta tasa de falsos positivos, y solo unas pocas herramientas de detección de IA tienen tasas significativamente bajas de detección de falsos positivos.35 En un entorno académico, esto puede significar marcar incorrectamente el trabajo de un estudiante como generado por IA, cuando en realidad es humano. También se han detectado diferencias en función del modelo de IA utilizado para generar el texto enviado a la herramienta de detección de IA, y viceversa.36 Además, es más probable que los contenidos elaborados por personas cuya lengua materna no es el inglés se clasifiquen erróneamente como generados por IA, lo que obviamente supone un problema para los centros educativos con alumnos de distintas procedencias.37
En el contexto de las herramientas de detección de IA, los falsos negativos se producen cuando una herramienta de detección de IA no identifica el contenido enviado como generado por IA. Algunas herramientas han mostrado una baja sensibilidad, identificando correctamente apenas 15% de las muestras enviadas como generadas por IA,38 mientras que otros demuestran una puntuación casi perfecta en la clasificación de contenidos escritos por humanos, clasificando erróneamente sólo el 3% de las muestras generadas por IA.39 En general, la precisión de los resultados varía mucho en función de la herramienta de detección de IA utilizada. Un estudio sugiere que solo dos de las principales herramientas de detección de IA clasificaron correctamente las 126 muestras como generadas por IA o por humanos.40 Otros investigadores afirman que las herramientas de detección de IA producen más falsos negativos cuando analizan un lenguaje más sofisticado.41
En general, la eficacia de las herramientas de detección de IA varía en función de qué herramienta se utilice y contra qué modelo. Un estudio reveló que las herramientas de detección de IA son más eficaces con contenidos ChatGPT-3.5, y menos con ChatGPT-4, excepto Copyleaks, Turnitin y Originality.ai, que tuvieron una precisión superior a 83% en la detección de contenidos ChatGPT-4.42 Este estudio concluyó que "la gratuidad o el pago de un detector no es un buen indicador de su precisión",43 aunque los resultados contrastados (con un tamaño de muestra pequeño) sugieren provisionalmente que las herramientas de detección de IA de pago parecen ser mejores que las gratuitas.44 Los estudios también se centran generalmente en la eficacia de las herramientas de detección de IA contra ChatGPT, ignorando otros LLM. Esto puede deberse a la mayor popularidad de los modelos de OpenAI en comparación con otros como Gemini, Mistral o Command.
El uso de chatbots de IA en el mundo académico plantea importantes cuestiones éticas, empezando por el daño a la reputación tanto de los estudiantes como de las instituciones de enseñanza superior. En el caso de los estudiantes, no revelar el uso de contenidos generados por IA y hacerlos pasar por suyos puede perjudicar su formación y su futuro profesional. Del mismo modo, las universidades pueden ser acusadas de permitir el plagio, hacer trampas y no mantener la integridad académica.
Sin embargo, el uso de herramientas de detección de IA sin las salvaguardias adecuadas genera preocupaciones igualmente importantes en torno a la privacidad y el consentimiento, especialmente en relación con los acuerdos contractuales entre las universidades y el proveedor de la herramienta. Por ejemplo, qué ocurre con el contenido cargado, cómo se almacena y el consentimiento en caso de que el contenido cargado se utilice en futuros datos de entrenamiento.
Además, como se ha explicado en la sección anterior, las herramientas de detección de IA pueden identificar erróneamente contenido escrito por humanos como IA (falsos positivos) o no detectar texto generado por IA (falsos negativos). La precisión varía mucho, y algunas herramientas detectan mejor ChatGPT-3.5. Por último, juegan al gato y al ratón con métodos para eludir la detección, incluido el software que genera específicamente contenidos diseñados para ser indetectables por las herramientas estándar de detección de IA.45
Las herramientas de detección de IA también contribuyen a debates más amplios sobre el acceso, la equidad y el impacto medioambiental. Es posible que los estudiantes utilicen la IA para facilitar la traducción y comprensión de los trabajos de clase, sobre todo si estudian en un país de habla inglesa y proceden de un entorno no anglófono o minoritario con menos oportunidades históricas de educación universitaria. También surgen problemas de acceso debido a la disponibilidad comercial de los LLM; los estudiantes más adinerados pueden pagar por modelos más sofisticados y/o alimentar su trabajo a través de múltiples LLM, lo que significa que las posibilidades de detección disminuyen significativamente.46
El Programa de Seminarios de Ciberseguridad de Google.org apoya cursos de seminarios de ciberseguridad en universidades seleccionadas y otras instituciones de educación superior elegibles en Europa, Oriente Medio y África, para ayudar a los estudiantes a aprender más sobre ciberseguridad y explorar vías en este campo. El programa apoya activamente la expansión de la formación en ciberseguridad en las universidades, para crear la mano de obra diversa necesaria para ayudar a las organizaciones más vulnerables a prevenir posibles ciberataques. También aborda los nuevos riesgos de la inteligencia artificial (IA), proporcionando a los estudiantes una comprensión de los cambios basados en la IA en el panorama de las ciberamenazas y ayudándoles a integrar eficazmente la IA en medidas prácticas de ciberseguridad.
Se espera que las universidades participantes promuevan activamente la igualdad, la diversidad y la inclusión en sus programas. Deben fomentar la participación activa de personas de diversos orígenes y crear un entorno inclusivo para la educación, enriqueciendo así la experiencia general de aprendizaje y fortaleciendo la comunidad de la ciberseguridad.