Carlos B Fernández. Una de las mayores alarmas que ha levantado ChatGPT, el sistema de Inteligencia Artificial desarrollado por la empresa OpenAI para generar textos a partir de un diálogo con el usuario, es su capacidad para imitar la expresión humana, de forma que sus resultados sean difícilmente indistinguibles de los elaborados por un ser humano.
Dada la calidad de este chat, dicha capacidad ha planteado inmediata preocupación en ámbitos docentes y profesionales como el periodístico o el artístico, pues podría darse el caso de que documentos como exámenes académicos u escritos de trabajo elaborados por este medio pasasen como elaborados por una persona.
Por ello, OpenAI acaba de anunciar el lanzamiento y puesta a disposición del público de un nuevo software capaz de identificar entre un texto escrito por un humano y texto escrito por IA. Pero, dado que por el momento todavía ofrece una serie de limitaciones importantes, advierte también de que no debe utilizarse como herramienta principal para la toma de decisiones, sino como complemento de otros métodos para determinar el origen de un texto.
Y es que, si bien en comparación con las primeras versiones de este clasificador, la última es significativamente más fiable frente a textos generados por sistemas de IA más recientes, insisten en que, por el momento, este clasificador no es totalmente fiable. Según informan, en sus evaluaciones sobre un conjunto de textos de prueba en inglés, el clasificador identificó correctamente el 26% de los textos escritos por IA (verdaderos positivos) como "probablemente escritos por IA", mientras que etiquetó incorrectamente como escrito por IA el 9% de las veces (falsos positivos) textos escritos por humanos.
Con todo, si bien la empresa ha señalado que es imposible detectar de forma fiable todo el texto escrito por IA, ha expresado también su convencimiento de que un buen clasificador de este tipo puede servir de base para identificar casos como la realización de campañas automatizadas de desinformación, el uso de herramientas de IA para el fraude académico o el posicionamiento de un chatbot de IA como si fuera un humano.
Limitaciones
Según OpenIA, la fiabilidad de su clasificador suele mejorar a medida que aumenta la longitud del texto de entrada, pero, por el contrario, el clasificador es muy poco fiable en textos cortos (menos de 1.000 caracteres). A veces, nuestro clasificador etiqueta incorrectamente, pero con seguridad, un texto escrito por un ser humano como escrito por una IA.
En principio, se recomienda utilizar el clasificador sólo para textos en inglés. Su rendimiento es significativamente peor en otros idiomas y no es fiable en código informático.
Por otra parte, OpenAI advierte también que los textos muy predecibles no pueden identificarse de forma fiable. Por ejemplo, es imposible predecir si una lista de los 1.000 primeros números primos ha sido escrita por la IA o por humanos, porque la respuesta correcta es siempre la misma.
Igualmente advierten también de que un texto escrito por una IA puede editarse para eludir el clasificador, si bien este puede actualizarse y volverse a entrenar, pero no está claro si la detección supone una ventaja a largo plazo.
Se sabe que los clasificadores basados en redes neuronales están mal calibrados fuera de sus datos de entrenamiento. Por ello, si se le plantean textos que son muy diferentes de los utilizados para su entrenamiento, el clasificador puede ofrecer predicciones erróneas.
Entrenamiento del clasificador
Según explican desde la propia compañía, este clasificador es un modelo de lenguaje afinado con un conjunto de textos escritos por humanos y por IA, sobre temas similares. Estos datos han sido recopilados de datos de diversas fuentes que se consideran que están escritas por humanos, como los datos de preentrenamiento y las preguntas formuladas a InstructGPT (una aplicación desarrollada por la empresa para optimizar la comprensión de las instrucciones formuladas en inglés). A continuación se divide cada texto en una pregunta y una respuesta. Sobre estos textos se generan respuestas a partir de distintos modelos lingüísticos entrenados por la propia empresa y por otras organizaciones. OpenAI indica que ha ajustado el umbral de confianza de la aplicación para mantener baja la tasa de falsos positivos; en otras palabras, sólo identifican un texto como probablemente escrito por IA si el clasificador tiene mucha confianza en dicha predicción.
Impacto de GhatGPT en la educación
OpenAI indica también que reconocen que identificar si un texto ha sido escrito por una IA ha sido un importante tema de debate entre los educadores, y que es igualmente importante reconocer los límites y las repercusiones de los clasificadores de texto generados por IA en el aula. Por ello han desarrollado un recurso preliminar sobre el uso de ChatGPT para educadores, en el que se describen algunos de los usos y las limitaciones y consideraciones asociadas. Aunque este recurso se centra en los educadores, la compañía espera que el nuevo clasificador y las herramientas de clasificación asociadas tengan un impacto en periodistas, investigadores de la desinformación y otros grupos.
En este sentido han informado de que están trabajando con educadores de Estados Unidos para saber qué ven en sus aulas y debatir sobre las capacidades y limitaciones de ChatGPT, como parte de su misión de desplegar grandes modelos lingüísticos (LLM) de forma segura, en contacto directo con las comunidades afectadas.