En la actualidad resulta difícil identificar qué texto fue escrito por inteligencia artificial (IA) o por un humano, antes había análisis de autoría; cuando escribimos tenemos “huellas de estilo”, como el uso de comas, signos de puntuación o elecciones léxicas, es decir, palabras que empleamos.
Durante el encuentro AI Summit 2025, la investigadora del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM, Helena Gómez Adorno, explicó lo anterior y añadió:
Desde hace tiempo ha habido métodos de atribución de autoría o análisis de estilo de escritura basados en estilometría y, posteriormente, en técnicas como machine learning o deep learning: no obstante, varias de ellas hoy en día ya no funcionan.
La experta participó en la reunión organizada por el IIMAS y las empresas OpenAI y Fintual, en la cual se abordó el tema Retos en la autoría de contenidos generados por IA.
En el ámbito académico, abundó, hay preocupación en torno al uso de este tipo de tecnología para generar textos, queremos saber si esto favorece o no el pensamiento crítico, qué desafíos puede tener en la educación y otras problemáticas relacionadas con la evaluación y mitigación de contenido generado por IA.
Para identificar escritos creados por esa herramienta se entrena un modelo de clasificación: se extraen las características de estilo para conocer ciertos patrones lingüísticos.
“Pero cada vez que OpenAI lanza un nuevo modelo tiene un estilo diferente y los patrones anteriores ya no funcionan, y hay que volver a hacer el entrenamiento. Por eso es difícil mantener un modelo actualizado y que pueda identificar cualquier IA”, puntualizó.
De acuerdo con Gómez Adorno, para enfrentar ese fenómeno no hay una sola solución sino numerosos enfoques. Lo que se requiere es que a partir de edades tempranas se inculque el empleo de estos modelos del lenguaje desde el punto de vista ético y pedagógico, sin que ello afecte a la enseñanza y los procesos cognitivos, y para formar profesionales y humanos funcionales en la sociedad.
¿De quién es la autoría?
Jorge Pérez González, de la Unidad Yucatán del IIMAS, refirió que en la actualidad tenemos IA generativa basada en modelos de redes neuronales que facilitan producir nuevas imágenes. Eso ha permitido la elaboración de patrones arquitectónicos, diseños para la industria de la moda, etcétera. “Ha sido muy útil en diferentes contextos”.
En ese proceso intervienen: desarrolladores, es decir, computólogos, matemáticos, actuarios, dedicados a diseñar algoritmos que llevan a aplicaciones; generadores de data sets; y usuarios que escriben los comandos para generar una imagen.
Hay que preguntarse quién de ellos es el autor principal. En lugares como Estados Unidos y Europa un algoritmo de IA no puede ser autor único de una creación; “tiene que venir de la mano de la creatividad humana”, aclaró en la sesión moderada por Katya Rodríguez Vázquez, también del IIMAS.
Pérez González apuntó que para detectar y mitigar el plagio se realizan investigaciones mediante algoritmos de clasificación binaria o dicotómica; es decir, entre imágenes reales y generadas o sintéticas. Aquí entran en juego algoritmos de machine learning o deep learning.
Cuando las imágenes son elaboradas, precisó el especialista, pasan por procesos de compresión y descompresión, así como por ciertos filtros, y se establecen patrones que se pueden identificar; es un tipo de firma. También hay algoritmos que detectan la autoría y realizan comparaciones automáticas; o bien, se usan metadatos. “Es necesario promover políticas que garanticen que las imágenes tengan esa información adicional”.
Hoy en día existen las elaboradas mediante algoritmos de IA, pero estos también se utilizan para descubrir si aquellas son fake o no. Estamos llegando a un círculo vicioso de contenido producido por redes neuronales y supervisado por estas. Por eso es importante que haya supervisión humana, recalcó.
Fernanda López Escobedo, académica de la Escuela Nacional de Ciencias Forenses, destacó que el desarrollo de sintetizadores de voz ha sido positivo; por ejemplo, se ha logrado imitar dialectos o emociones. Pero también tiene su lado negativo: las voces fake hechas por IA para cometer delitos, como fraudes telefónicos, o diseminar noticias falsas.
La especialista mencionó que se hace comparación forense cuando “tenemos que determinar si una voz dubitada, aquella que no sabemos a quién pertenece, es la de un sospechoso, a la cual llamamos indubitada”.
No obstante, hoy se presenta un reto extra: determinar primero si la dubitada es creada por IA o es humana. Los forenses tenemos ese reto y cuando logramos hacer la distinción, comenzamos con el proceso de comparación, describió.
Antes, recordó López Escobedo, era fácil identificar una de computadora por su tono plano, pero desde hace algunos años se complica distinguir las voces sintéticas de las de personas porque los sintetizadores están logrando el nivel de tono, dialecto y emoción.
El reto está ahora en ubicar lo que no es tan imitable; hay características lingüísticas como la duración de las vocales, o la relajación de palabras al final de una oración, que seguramente la inteligencia artificial logrará hacer, finalizó.