En Lyon, los estudiantes que usaban ChatGPT fueron «desenmascarados» por su maestro. “CheckNews” entrevistó a varios investigadores detrás de las herramientas de detección de texto generadas por IA.

La inteligencia artificial utilizada por ChatGPT tiene la característica de crear la ilusión de precisión. Así fue como varios alumnos de Lyon pudieron utilizarlo sin que pudieran ser acusados ​​de plagio… pero sin lograr engañar a su profesor. (Jonathan Raa/NurPhoto vía AFP)

Stéphane Bonvallet, profesor de minusvalía en la facultad de Lyon, había pedido a sus alumnos que trabajaran sobre «el enfoque médico de la discapacidad en Europa». A la hora de corregir las copias, le asalta una duda. “No se trataba de copiar y pegar. Pero las copias se construyeron exactamente de la misma manera” , relata en Le Progrès . 

“Encontramos las mismas construcciones gramaticales allí. El razonamiento se llevó a cabo en el mismo orden, con las mismas cualidades y las mismas fallas. Finalmente, todos fueron ilustrados con un ejemplo personal, relativo a una abuela o un abuelo…»

 Si estas copias eran pues «no normales», la maestra“No entendí de inmediato de qué se trataba. Obviamente, no fue una cuestión de plagio [del sitio web]”. Uno de los estudiantes admite: la mitad de los catorce estudiantes de maestría que siguieron el curso «habían usado la inteligencia artificial ChatGPT».

ChatGPT es una aplicación derivada de un «modelo de lenguaje» llamado GPT-3, desarrollado por la empresa OpenAI. Un modelo de lenguaje se deriva de un análisis estadístico de la distribución de palabras en textos preexistentes.

 En el transcurso de los análisis, la máquina identifica que ciertas palabras siempre preceden a otras palabras, que otras pueden insertarse: por ejemplo, en francés, «un», «le» y «ce» preceden a la palabra «chien»; los adjetivos «grande», «pequeño», «grande» suelen estar presentes entre estas palabras, y más raramente después. La fuerza de la inteligencia artificial (IA) detrás de ChatGPT es poder extrapolar textos muy largos en respuesta a preguntas.

En el asunto de Lyon, sin embargo, fue la homogeneidad en la estructura de los textos lo que alertó al maestro. De hecho, incluso si ofrece 100 tonos de respuestas a la misma pregunta, la máquina sigue más o menos la misma receta, inspirada en miles de modelos disponibles en línea.

Al no estar formalmente prohibida la práctica, el profesor decidió calificar la tarea. “De un ejemplar a otro valía entre 10 y 12,5. Así que les puse 11,75 a los siete alumnos que usaron ChatGPT”, explica al diario regional. No es suficiente para ganar palmas académicas. Porque hasta la fecha, para un tema determinado, esta IA textual es especialmente buena para sintetizar las ideas encontradas con más frecuencia durante su aprendizaje.

ilusión de precisión

La principal característica de los modelos de lenguaje utilizados por las IA sigue siendo la “ilusión de corrección”, como observó a mediados de diciembre Melissa Heikkilä, periodista del MIT Technology Review, especializada en temas de IA. “Las oraciones que producen parecen correctas: usan el tipo correcto de palabras en el orden correcto. Pero la IA no sabe lo que eso significa. Estos modelos […] no tienen idea de lo que está bien o mal, y presentan con confianza la información como verdadera, incluso cuando no lo es…”

Varios equipos de investigación de todo el mundo están trabajando para desarrollar un software capaz de detectar los «tics» estilísticos de las IA. En un estudio publicado en 2020, un equipo de investigadores adscrito a la Universidad de Pensilvania y al laboratorio Google Brain dedicado al «aprendizaje profundo» observa que estos textos abusan de palabras impersonales, y utilizan solo unas pocas palabras «raras» (jerga, lenguaje fuerte). …). Los textos producidos por IA también se escriben… sin errores tipográficos.

Las universidades ya utilizan software de detección de plagio para identificar «préstamos» de textos presentes en línea en producciones de estudiantes. Se están desarrollando dispositivos similares para reconocer el «estilo» único de las IA. Por lo tanto, los algoritmos se han entrenado en la detección con conjuntos de textos escritos respectivamente por humanos e IA (asociados con GPT, GPT-2 u otros modelos de lenguaje) y etiquetados como tales.

 En resumen, se les pide a las IA que evalúen las IA. Entre estas herramientas podemos citar el Detector de salida GPT-2 , de uso muy intuitivo, creado en 2019 como parte de un proyecto “para una liberación responsable, por etapas, de GPT-2” llevado por OpenAI. Pero también la extensión del navegador ChromeGPTrue o False , el Giant Language Model Test Room (GLTR) , desarrollado por un equipo de Harvard en asociación con IBM, o el detector CTRL , desarrollado por el editor de software Salesforce. 

Herramientas esencialmente desarrolladas y evaluadas sobre corpus de habla inglesa, y algunas de las cuales son particularmente eficientes… siempre que el texto propuesto “sea producido íntegramente por IA”, señala a CheckNews Ganesh Jawahar, investigador de IA en la Universidad de Columbia británica. Este ya no es el caso «si el texto generado [por la IA] fue luego editado por los estudiantes…», incluido el uso de software de paráfrasis automatizado.

“Cóctel de métodos de detección”

Los diversos expertos contactados por CheckNews también creen que el modelo GPT-3 está muy por delante de las herramientas de detección. Entre un texto poco original escrito por un humano sin inspiración y un ensayo firmado por ChatGPT, la diferencia se vuelve muy pequeña… Irene Solaiman, investigadora de Hugging Face y ex empleada de OpenAI, nos confirma sin sorpresa que “la precisión [del software de detección] disminuye con [modelos de lenguaje] más poderosos”, refiriéndose a una evaluación realizada a finales de 2019 en la que participó. Ella dice que, sin embargo , está «gratamente sorprendida de que el detector de salida GPT-2 todavía funcione lo suficientemente bien para ChatGPT» (según uno de los cofundadores de Hugging Face, Julien Chaumond, ha habido“4,45 millones de usuarios únicos en esta herramienta de detección desde el 1 de diciembre” ). 

A principios de enero, Edward Tian, ​​estudiante de informática de la Universidad de Princeton, publicó un detector ChatGPT dedicado llamado GPTzero, cuyo rendimiento aún no se ha evaluado formalmente.

Sea como fuere, “ningún método o modelo de detección [automatizada] será 100% fiable”, juzga Irene Solaiman. Por eso, “siempre recomienda usar un cóctel de métodos de detección, no solo uno”. Por ejemplo, tenga en cuenta que ChatGPT ha sido ampliamente capacitado en grandes corpus de textos. 

Por lo tanto, se equivoca cuando se trata de mencionar eventos recientes. Muhammad Abdul-Mageed, un segundo investigador de la Universidad de Columbia Británica entrevistado por CheckNews, señala que “dado que la IA no conoce estos eventos recientes, uno puede detectar, trivialmente, errores de juicio como: “Canadá ganó la Copa del Mundo de 2022”. .”Las palabras puestas de punta a punta por la IA de forma gramaticalmente correcta también pueden delatar un profundo desconocimiento de la realidad física de nuestro mundo (referencia a órdenes de magnitud inverosímiles para distancias, duraciones). Finalmente, señala Solaiman, debido a que los modelos producen textos extrapolando qué términos tienen más probabilidades de suceder a otros, “a veces pueden quedar atrapados en un bucle”, generando dudosas repeticiones y redundancias.

“Violación de la integridad académica”

Recientemente, la empresa OpenAI confirmó que estaba trabajando de manera muy subrepticia para alterar largas secuencias de textos generados por su IA con el fin de constituir una firma, y ​​por lo tanto una prueba, del origen del texto. Por ejemplo, esto podría consistir en obligar a la máquina a completar una oración de diez con una palabra que termine con la misma letra, o una oración de veinte con una palabra que comience con la misma letra. Algo inocuo en apariencia, invisible para el lector, pero perfectamente incriminatorio.

Desde principios de 2023, el acceso a ChatGPT desde las escuelas de Nueva York está prohibido. “Cada vez más organizaciones educativas han comenzado a discutir el uso de ChatGPT para el trabajo de los estudiantes”, continúa Muhammad Abdul-Mageed.“Eso incluye nuestra propia universidad, UBC, y otras como la Universidad de Washington. 

En esta etapa, las universidades parecen estar tratando de adoptar un enfoque equilibrado. Por ejemplo, algunas universidades alientan a sus profesores a comenzar a incluir información sobre el uso de herramientas de inteligencia artificial para completar o automatizar las respuestas de tareas en su plan de estudios. También hay una tendencia positiva donde las universidades animan a los profesores a integrar el conocimiento sobre estas herramientas en los planes de estudio, etc.”

Para Irene Solaiman, parece claro que “si un docente no ha consentido en leer o calificar un ensayo generado por un modelo de lenguaje”, la situación se asemeja a “una violación de la integridad académica”. Sin embargo, si el uso que se hace de ella es transparente, la herramienta podría encontrar su lugar en la academia : un “autor” en una publicación”, explica. Sin embargo, algunas producciones de IA aún tendrán que «ser guiadas por humanos» y «requerirán validación humana» , especialmente aquellas que involucran“medicina y salud mental o física”. “Estas son áreas obvias de alto riesgo, ya que afectan directamente el bienestar humano”, insiste Soleiman.

«Pensamiento crítico crítico»

“Una de las cosas más útiles que puede hacer, juez Muhammad Abdul-Mageed, en mi opinión, es educar a los usuarios sobre el tema de la desinformación y cómo ser críticos con lo que leemos en línea. Puede ser difícil, pero es posible. De todos modos, incluso si las herramientas para detectar generaciones de ChatGPT se desarrollan y son efectivas, es probable que se introduzcan nuevos patrones. Por lo tanto, esta situación no debería cambiar en el futuro cercano, y nuestro pensamiento crítico como humanos seguirá siendo crucial.

En la revista l’Ecole des lettres , una profesora de literatura de un establecimiento parisino, Marie-Astrid Clair, ofrece un interesante punto de vista sobre la irrupción de ChatGPT en el ámbito educativo. «La existencia de una herramienta de este tipo tal vez reduzca la parte de los deberes, que es la fuente de tantas desigualdades para nuestros alumnos y, como saben, señoras y señores, ustedes que, por la noche o los fines de semana, son a menudo los no -inteligencia artificial de tus hijos.

 Tal máquina quizás desarrollará aún más el lugar dado a lo oral, a la creatividad, a la brevedad. Quizá les dé a los profesores de francés la ilusión momentánea de que no, a pesar de las pocas horas, el nivel no ha bajado. Y este puede ser el caso si el estudiante descubre el incomparable Diccionario de sinónimos en línea CNRS / CNRTL , y luego diviértete personalizando todo. También obligará al alumno a concentrarse no en la técnica sino en su propio pensamiento expresado por palabras adaptadas…”

Share.
Exit mobile version