PREGUNTA
José M. Hernández Álava, Editor-in-Chief, DYNA journals – UK Zhende
15 de julio de 2025
Acabo de detectar con un 45% de verosimilitud que un articulo que ya hemos aprobado, esta generado probablemente con inteligencia artificial.
La herramienta usada es Turnitin
¿Alguna recomendación para tatar este caso? ¿Qué se suele hacer?
RESPUESTAS
Tomàs Baiget, director de Ediciones Profesionales de la Información SL, España
15 de julio de 2025
Sinceramente, si ya ha sido evaluado y aprobado, hay que publicarlo. En principio hay que confiar en el trabajo de los revisores.
¡Es evidente que el autor ha sabido usar correctamente la herramienta IA!
Yo considero la IA como un instrumento más, de igual modo que nadie se escandaliza por usar un Excel, en vez de hacer los cálculos a mano.
Recientemente, en el pasado 14 CRECS de Granada (mayo de 2025), Abel Packer dijo que igual habría que obligar a que todo el mundo use obligatoriamente la IA. En la misma reunión, un profesor reconoció que la IA puede hacer mejores trabajos que al menos la mitad de los TFG que hacen sus alumnos.
Estoy seguro que la IA hace o hará muy pronto mejores análisis de la ciencia publicada de lo que son capaces muchos investigadores.
Claro, otra cosa es producir ciencia nueva a base de experimentos o encuestas. Aquí los humanos (aún) somos imprescindibles.
—
Karen González Fernández, Profesora-investigadora, Secretaria editorial de Tópicos, Revista de Filosofía. Universidad Panamericana, México.
https://revistas.up.edu.mx/topicos
15 de julio de 2025
Considero que, en primer lugar, la revista debe revisar sus políticas, si no especificaban nada sobre el uso de la IA, y el artículo ya fue aceptado, igual y sí deberían publicarlo.
De cualquier modo, sería importante que el comité de la revista se posicionará pronto sobre si aceptarán o no publicaciones con IA y dejarle claro a los autores si pueden usarla o no, o si deben declarar su uso. Tengan en cuanta que hay distintos tipos de IA y podrían aceptarse unos usos y otros no.
También se debe pensar en el papel que se le dará a las herramientas que detectan usos de IA, no necesariamente debería ser considerado negativo, pero cada revista deberá determinar cómo las usarán. Hay que tener en cuenta que también dan falsos positivos.
Por otro lado, creo que hay que ser muy cuidadosos con lo que se quiere decir cuando se dice que “la IA hará mejores trabajos que los humanos”; la IA no razona igual que los humanos y los humanos somos los que leemos e interpretamos los textos y los valoramos. Creo que podría defenderse el uso de la IA como una herramienta, pero siempre debe haber un humano que se haga responsable del resultado final. Cuándo se use la IA como herramienta de escritura habrá que revisar mucho, corregir redacción, refinar las ideas, todo eso debe hacerlo un humano.
También defender que se debe usar la IA obligatoriamente es muy cuestionable, por lo menos, todavía.
—
Miguel Zapata Ros, editor de la Revista de Educación a Distancia (RED), profesor honorífico de la Universidad de Murcia, España.
15 de julio de 2025
Ese es un problema que algunos venimos anunciando.
Formalmente podríais publicarlo y nadie diría nada. Turnitin no asegura que sea generado por IA en ninguno de los dos o tres niveles que ofrece. Dice que su algoritmo detecta un tanto por ciento N generado por un LLM , con un tanto por ciento de probabilidad P. Cómo no hay certeza recomienda otros métodos más definitivos como entrevistas, etc. Es lo que nosotros hemos hecho. Ese informe en principio no anula la investigación que quieren comunicar el artículo. En ese caso les hemos invitado a volver a redactarlo hasta conseguir un nivel aceptable.
Eso es por ahora lo que se puede hacer, pero es una solución temporal. La cuestión de fondo permanece y, como anuncia una investigación de Gao et al. que cito en mis trabajos, no podremos distinguir con certeza un artículo hecho por humanos de otro hecho por IA. Tampoco una tesis, un TFM o en general un proyecto.
La solución en la educación es la evaluación formativa, y en la revisión de pares una nueva revisión cara a cara con entrevistas y supervisión en la elaboración. Eso es caro e incompatible con el open acceso de oro (con APC), según planteé en uno de los posts que envié a la lista. Tendremos que volver a pagar por el acceso a los artículos, no por publicar. Al menos a los que pasen una primera revisión editorial
Son sólo conclusiones de lo tratado y analizado en otros trabajos.
—
José M. Hernández Álava, Editor-in-Chief, DYNA journals – UK Zhende
16 de julio de 2025
Nuestra revista permite el uso de la IA, siempre que se declare como y donde se ha usado en la elaboración del artículo, pero en este caso no se declarado.
Seguramente volveremos a hacer una nueva revisión con otro evaluador para asegurarnos.
Estimado Ismael, gracias por tus comentarios
Usamos 2 cosas. El informe de similitud Crossref en la recepción del articulo y cuando es necesario, y el informe de probabilidad IA de Turnitin.
El informe Crossref de similitud no presentó problemas, pero debido a la sospecha de un editor cuando se había acabado la revisión, pasamos la herramienta IA de Turnitin y dio el citado resultado del 45%.
—
Lluís Codina, Profesor honorario, Universitat Pompeu Fabra, Barcelona
https://www.lluiscodina.com
Creo que un aspecto clave del uso de la IA en artículos científicos es mantener (1) la transparencia y (2) la trazabilidad.
Si se ha usado la IA de forma sustancial en la producción de un artículo para una revista, la normativa internacional señala que este uso debe hacerse transparente, esto es, se debe declarar en la metodología o en un apartado específico. La trazabilidad señala que, en función del uso realizado, se especifiquen detalles suficientes (modelo utilizado, prompt, etc.) en los anexos o en el data set.
La revista, según entiendo, está a tiempo de contactar al autor de correspondencia y pedirle aclaraciones y, en su caso, recomendarle que aplique la normativa aceptada de transparencia y trazabilidad en su caso.
Otra cosa es que las revistas deben adaptarse al uso de la IA y preparar normativas al respecto. Las guías del COPE pueden ayudar, así como el documento comparativo que adjunto, por si alguien lo considera útil.
La cuestión de la redacción de texto por una IA merece una consideración aparte. Este no debería ser un uso permitido en el sentido de “copiar y pegar”. Creo que se debe exigir que la totalidad del texto redactado sea producido por los autores, aunque hayan utilizado una IA como punto de partida en alguna sección. Para ello, los autores deben revisar el texto y hacerlo suyo, mediante verificación, evaluación, edición, etc., del texto generado originalmente por la IA.
Una de las razones para esto tiene que ver con la verificación de datos y conceptos y otra con mantener la cadena de atribución. Sin la verificación y evaluación del texto generado por la IA antes de incorporarlo, la cadena de atribución se puede romper, se rompe también la exigencia de rendimiento de cuentas de los autores y por supuesto se pueden colar errores factuales o conceptuales.
—
Ricardo A. Tejedor E., Asistente Editorial, Facultad de Ciencias Económicas y Administrativas, Universidad Pedagógica y Tecnológica de Colombia
https://revistas.uptc.edu.co/index.php/cenes
16 de julio de 2025
Comparto con ustedes la política de uso de IA para la revista Apuntes del Cenes y formato. De esta manera esperamos ser transparentes para estos menesteres.
https://revistas.uptc.edu.co/index.php/cenes/politica_de_uso_de_IA
https://revistas.uptc.edu.co/index.php/cenes/libraryFiles/downloadPublic/418
Espero sea de utilidad y agradezco sus observaciones.
—
Rosario Rogel Salazar, Facultad de Ciencias Políticas y Sociales, Universidad Autónoma del Estado de México, Toluca, México.
Quizá mi comentario es algo obvio pero…
Si la revista acepta el uso de IA —siempre y cuando se declare— y ustedes, a partir de las revisiones que han hecho —tanto humanas, como con uso de alguna herramienta—, tienen la duda de su uso; y es una duda legítima, sin lugar a dudas…
¿Por qué no preguntar directamente a las personas autoras? Hacerles ver que no es algo inadecuado, que deba ocultarse, pero que es muy importante ser transparentes en atención a las políticas de ética e integridad académica. No se trata sólo de solicitar la mención del uso de IA, sino hacerles saber el dilema que esto les ha suscitado. Al final del día, la labor editorial es una cuestión de aprendizaje constante para las personas involucradas en el proceso.
—
