lunes, 12 de febrero de 2024

¿Ya podemos confiar en las IA que detectan IA? Las mismas pruebas que hace un año con resultados que tal vez te sorprendan

A principios de 2023 realizamos pruebas breves con Inteligencia Artificial para detectar Inteligencia Artificial. En este post puedes ver el experimento (mayo 2023, con enlace al de febrero 2023). 

En aquel momento no nos sorprendió demasiado que los resultados hayan sido adversos para la IA, ya que era bastante reciente el fenómeno y las herramientas nuevas. 

De ahí que pensamos que esto le daba mucho aire y larga vida a la tarea docente, entendiendo esta como la de un experto/a en un determindo ámbito o disciplina que valida conexiones, tutoriza procesos y se transforma en referente para el aprendizaje.

Un año más tarde, volvimos a realizar la prueba. Y ahora sí nos sorprendió el resultado ya que alguna vez dijo alguien por ahí que un año en Internet son 10 de la vida real. Entonces, siguiendo esa metáfora estamos una década más tarde! Realizamos exactamente la misma prueba, le dimos el mismo prompt a las mismas 3 herramientas del año pasado, y los resultados fueron sorprendentes. En primer lugar porque los 3 servicios siguen funcionando, y en segundo lugar por la forma en que interpretan el contenido, a pesar de verse mejoras en lo estético o de diseño gráfico.

Entonces, le volvimos a pedir a ChatGPT (usando siempre la versión gratuita) que escriba un tuit como si fuera @pbongiovanni y seguidamente volví a pedirle que escriba un hilo, exactamente con las mismas palabras que el año pasado.

Aquí una captura del "prompt" y sus correspondientes respuestas, realizadas el 10 de febrero de 2024 (Con link al resultado directo en ChatGPT, que el año pasado no lo había hecho.


(Link a resultado ChatGPT: https://chat.openai.com/share/29356cc4-f9ba-4316-8e10-35f840fe825d)

Al igual que el año pasado, a pesar de que le pedí al chatbot de OpenAI que escriba tuits, y a primera vista parecen bien construidos e incluyendo hashtags, tuve que quitar algunos caracteres en los casos que superaban el límite de 280 que es el que sigo teniendo en mi cuenta gratuita de X.

Entonces, a la vez que hacía la prueba, los publiqué con este formato:



Ahora repetimos las pruebas.

Volvimos a copiar desde desde ChatGPT, no desde los tuits, para no "contaminar la muestra" y los fuimos colocando de a uno, en los mismos tres detectores que había usado hace un año

GPTZero: Desarrollado por Edward Tian, estudiante de la Universidad de Princeton, GPTZero es una herramienta capaz de detectar los textos escritos por un chatbot, basándose en la «perplejidad» o aleatoriedad del texto, una medida de lo bien que un bot puede predecir un texto. O sea, entre más alto sea este indicador, más caos habrá en el escrito y, por lo tanto, más probabilidad de que haya sido creado por una herramienta como ChatGPT.

Writer: Writer es un asistente de escritura de IA para equipos, que además incorpora un detector de contenido generado por herramientas de inteligencia artificial. Es muy fácil de utilizar. Solo hay que pegar en la aplicación el texto o la URL donde se encuentra alojado, y en cuestión de segundos el sistema realiza un análisis que arroja un resultado de probabilidad de que el escrito haya sido generado por un humano. 

ChatGPT Detector: ChatGPT Detector tiene el poder de detectar si un texto es producido por ChatGPT, valiéndose de funciones lingüísticas o clasificadores basados ​​en PLM. Los resultados de sus análisis son calificados como humano o ChatGPT, aportando un porcentaje de probabilidad.


Ahora aquí capturas hechas con el primer detector: https://gptzero.me/ 

Primer tuit:



Segundo tuit:



Tercer tuit:






Ahora realizamos lo mismo con el segundo detector: https://writer.com/ai-content-detector/ 

Primer tuit:


Segundo tuit:


Tercer tuit:






Primer tuit:





Segundo tuit:

Tercer tuit:




La primera conclusión fue que en los tres detectores, los tres tuitsfueron interpretados como escritos por un humano. Ahora bien, inmediatamente repetimos para ver si el problema podía llegar a ser otra vez el idioma, ya que los detectores están en Inglés

Entonces le pedimos con el mismo prompt del año pasado a ChatGPT que los escribia en Inglés, y reiniciamos la prueba. Nuvamente sólo con el primer tuit a los fines de probar si obteníamos (ahora sí) alguna variación en los resultados.



Van entonces ahora aquí las capturas de los tres detectores con el texto generado por ChatGPT en inglés.


Los resultados entonces revelaron que una década un año más tarde, en la misma serie de pruebas, los detectores de textos generados por IA arrojaron en dos oportunidad el mismo veredicto: los textos fueron clasificados como escritos por humanos, excepto en el caso de GPTZero, escribiendo en inglés que sí pudo identificar que el autor detrás de esos textos era otra IA (recordamos que nosotros trabajamos sólo con ChatGPT).

Estos hallazgos resaltan la necesidad de seguir cuestionando la fiabilidad de los actuales detectores de textos, teniendo especial cuidado en el idioma en el cual se constituyen las pruebas, ya que su rendimiento nos mueve a mantener una postura crítica en la evaluación de la autenticidad de los contenidos generados por IA.

Es por esto que agregamos ahora una prueba para tres nuevos detectores de IA, que se proponen en Español. Y los resultados dieron en una oportunidad (con Smodin) una correcta detección y en dos oportunidades (Plagiarism Detector y Detecting-IA) resultado erróneo, similar a los anteriores.











En estas pruebas y teniendo en cuenta tanto las que agregamos en Español como así también que en el último año se multiplicaron los "detectores de IA" y muchos se promueven en nuestro idioma dejamos tres puntos para seguir pensando: 

1) Podríamos concluir que una tarea interesante para realizar desde la mirada docente en 2024 es investigar cuál/cuáles son los mejores detectores actuales en el idioma en el que vayamos a trabajar. 

2) A pesar de este detalle evidente, es coherente que podamos volver a afirmar y compartir que aún deseamos una ¡Larga vida a la función y rol docente!


Si te sirvió esta entrada ¡compártela! 

Hasta la próxima.