Scroll Top

Uso de la IA en la evaluación de manuscritos

Alfredo EymannAlfredo Eymann, Hospital Italiano de Buenos Aires, Argentina
12 de junio de 2025

PREGUNTA

Me gustaría conocer sus opiniones en relación al uso la IA en los procesos editoriales (gestión, revisión de estudios, envíos automáticos, etc.).

Personalmente creo que, aunque la mayoría de los entes reguladores no valida el uso de AI en revisiones (por el conflicto de violar la originalidad), habría que ir considerando su uso y definirlo en las políticas editoriales con el consentimiento de los autores.

RESPUESTAS

Lluís CodinaLluís Codina, profesor honorario, Universitat Pompeu Fabra, Barcelona

El tema que plantea Alfredo es un temazo. Hay problemas de protección de datos, pero no solo de protección de datos en el sentido habitual.  El posible uso de IA en tareas de revisión solo podria hacerse con IA que tuvieran garantizada no solo la protección de daros sino también que tuvieran garantizado NO usar consultas y NO usar los documentos asociados.

Habría que determinar también qué uso podría hacerse de la IA y qué usos no. Por ejemplo: no podría usarse para sustituir una decisión informada del evaluador, por tanto, no podría usarse para obviar la lectura atenta del artículo por parte del evaluador. Podría usarse para ofrecer un primer análisis de los puntos fuertes del artículo, pero según mi experiencia, no podría usarse para analizar los puntos débiles. Esto debería quedar exclusivamente a cargo del evaluador.

Podría usarse para analizar cosas como la redacción o secciones concretas del artículo con dificultades especiales, por ejemplo, el apartado estadístico, si lo hay. En fin, un tema que necesita ser considerado con cuidado y de manera colegiada.

Requiere el debate y colaborción de una colectividad de expertos comprometidos con aportar ideas y pensamiento crítico. Lo que sí creo es que, más pronto que tarde, habrá que contemplar este uso si queremos que el leit motiv de la IA se cumpla: “sus beneficios deben llegar a todos”. 

Y esto en el mundo académico solo se puede hacer con un imperativo, el de la ética y sus principios fundamentales:  beneficencia, no maleficencia, autonomía y justicia.

Jorge Arturo Jiménez LandínJorge Arturo Jiménez Landín, Responsable del Programa Editorial Periódico, Dirección General de Publicaciones, Universidad de Colima

Considero que debemos educarnos y educar sobre el uso de la IAG. Conocer sus alcances es una manera muy efectiva de identificar sus limitaciones y, con esto, hacer un uso ético de ella en el mundo de la gestión del conocimiento y la comunicación científica.

Quizá algunos ya conozcan el trabajo de colegas de la Universidad Nacional, de Costa Rica, que diseñaron la Declaración de  Heredia, acerca de los principios sobre el uso de la IA en la edición científica:
https://doi.org/10.15359/ree.28-S.19967

La Declaración devino en el desarrollo de  una Guía para el uso y reporte de IA en revistas, desde las diferentes perspectivas de los roles que intervienen:
https://www.revistas.una.ac.cr/index.php/EDUCARE/article/view/19830/31511

El avance tecnológico sigue avanzando y el mundo no nos espera. Sin duda debemos seguir capacitándonos a la par del desahogo de nuestras tareas cotidianas.

Raquel Kritsch

 

Raquel Kritsch, Editora de Mediações, Universidade Estadual de Londrina, Brasil.

No Brasil, também, este debate está acontecendo hoje, com muitas questões em aberto, como as instigantes, já colocadas aqui.

 

 

 

 

De modo geral, as agências e periódicos têm assumido, para autorias, a necessidade de uso ético. Para editoras e e avaliadores, o debate ainda não alcançou nenhum tipo de ‘conduta básica comum’.

Apesar disso, SciELO Brasil nos tem indicado um livro publicado recentemente, que compartilho aqui, em anexo.

https://prpg.unicamp.br/wp-content/uploads/sites/10/2025/01/livro-diretrizes-ia-1.pdf
https://www.portcom.intercom.org.br/ebooks/arquivos/livro-diretrizes-ia.pdf

Karen González FernándezKaren González Fernández, Profesora-investigadora, Secretaria editorial de Tópicos, Revista de Filosofía. Universidad Panamericana, México.
9 de julio de 2025

He publicado un artículo sobre el uso de la IA en los sistemas de publicación académica de revisión ciega:
https://journal.upaep.mx/index.php/EthicsEconomicsandCommonGoods/article/view/393

Independientemente del contenido del artículo, y pensando en los comentarios en la conversación anterior, les dejo algunas reflexiones:

 

a) El sistema de revisión por pares es un sistema que depende mucho de la confianza, y aunque sea difícil tenemos que seguir confiando. Coincido con varios de los que mencionan que los sistemas que tenemos para “probar” que se usó IA no funcionan y no funcionarán adecuadamente; por lo que no creo que sea la mejor opción intentar probarlo de esa manera.

b) Me parece muy importante, para empezar, que todas las personas involucradas en los procesos editoriales sean, por lo menos, conscientes de las implicaciones que tiene usar sistemas de IA para la publicación académica, porque eso podrá ayudar a que, al menos algunos de los agentes involucrados en estos procesos lo hagan de la mejor manera posible. En ese sentido, yo me decanto más por que las revistas tomen sus propias medidas y por proponer que se declare que se usa IA, siempre que sea así.

c) Como señalan también, hay que ser muy prudentes, y en este caso, creo que significa tener paciencia para ver cómo siguen evolucionando estas herramientas y no desesperar pensando que solo arrasarán con todo. Aunque también creo que sí hay que defender lo importante.

En fin. Ojalá estas reflexiones junto con el artículo sean de interés para ustedes.

Josué Pino CastilloJosué Pino Castillo, Productor Editorial, Revista Chilena de Fonoaudiología
https://revfono.uchile.cl
9 de julio de 2025

Muchas gracias por tu correo. Solo me asalta una duda/reflexión con el punto c que señalas: ¿qué es lo importante que se debería defender? ¿la integridad y la ética? ¿la productividad? ¿la confianza? ¿la calidad? ¿la cantidad? ¿la velocidad? ¿una combinación de estos y otros elementos? o ¿cada revista debería definir “lo importante”?

 

 

Josué, muchas gracias por sus preguntas.

Efectivamente, lo importante son muchas cosas, en términos mayores, podemos pensar en el sistema científico en grande, y el sistema de revisión de pares como algo muy importante dentro del mismo; si lo pensamos así, incluso aunque la IA no llegará a ser una herramienta tan disruptiva en general, sí corremos el riesgo de que usos desmedidos de la IA que ya existe, vulneren mucho este sistema; desde esa perspectiva, creo que sí es muy importante que todos, investigadores, editores, revisores e incluso las instituciones seamos mucho más conscientes de la manera en que la IA está ya filtrándose en el sistema y seamos muy claros en las directrices que queremos sostener para evitar que esta filtración sea dañina. Desde esta perspectiva, ciertas cuestiones éticas, como que las revistas tengan sus reglas sobre qué permiten y qué no, son muy importantes. Y todo lo que tenga que ver con el sistema de confianza también es importante, por eso me parece que sería muy relevante que todos reportaran para que usan estas herramientas.

Por otro lado, todo esto tiene límites, en el sentido de que las revistas deben ser conscientes de sus alcances, si ellas solicitan que no se usen estas herramientas, ¿podrán probar si alguien las usó? Por lo menos, deben ser conscientes de que a lo mejor no podrán eliminar artículos por haber usado IA, porque las herramientas que hay para detectar eso son muy imperfectas. Obviamente se podrán eliminar textos en donde se incluyan datos falsos o citas inexistentes, pero fuera de eso, será muy difícil demostrar que se usó IA, y seguramente sí habrá gente usándola.

Algunas dificultades añadidas es que lo que en algunos casos puede ser una falta ética, en otros casos podría no serlo. A lo mejor un revisor si lee todo el artículo que le piden revisar, lo reflexiona mucho, escribe observaciones, y de todos modos, pide ayuda a una IA para algún proceso. ¿Esto es éticamente negativo? Podría parecer que no; en cambio, alguien que ni siquiera lee el artículo y solo pide una evaluación a una IA sí estaría cometiendo una falta ética. Pero cómo evaluar cada uno de estos casos es muy difícil, incluso conociendo todos los elementos alrededor de los mismos, y son muchas cuestiones que no estarán en ningún momento, en realidad, en conocimiento de los editores de la revista. (A lo mejor en algún momento se podrá saber algo si se cuenta con herramientas que detectan uso de IA, o algunas otras cuestiones que hicieran evidente el uso; pero no se puede confiar en que esto se sabrá siempre). A menos que las personas reporten que usaron estas herramientas, se estará un poco a ciegas sobre el uso de la misma.

Dos observaciones más:

  1. a) Sí creo que cada revista debe definir qué es lo importante para ella, y que eso también puede determinar muchos de sus procesos, y también eso puede estar relacionado con la disciplina de la que trate la revista. No es el mismo problema el usar IA para actividades como traducciones o búsquedas de bibliografía (siempre y cuando se haga con herramientas de IA adecuadas, y además este último es un uso que incluso se está erigiendo como una “buena práctica” que podría ser obligatoria en un futuro, según algunas “fuerzas” del sistema académico), que usarla para generar ideas y desarrollar texto.
    Generar ideas y texto están en una línea muy ambigua entre ser éticamente adecuadas o no. Y a lo mejor algunas revistas deciden que no pueden permitir estos usos, mientras otras sí los permitirán. A esto también se le puede dar mayor o menor importancia dependiendo de la disciplina involucrada. A lo mejor alguna revista de Ingeniería lo considera algo permisible, pero tal vez alguna de filosofía decide que no debería favorecer ningún uso de este tipo en esta disciplina.

 

  1. b) Y finalmente, creo que hay que ser muy cuidadosos con los valores que nos interesan para la ciencia. Si bien, considero que el sistema de evaluación por pares es muy valioso en la investigación científica, también ha favorecido muchas prácticas problemáticas en las instituciones y los Estados, que le han terminado dando demasiada importancia a este sistema para la promoción y contratación de profesores y para que los investigadores reciban incentivos. Y ha habido personas y revistas que han abusado de este sistema y han cometido claramente faltas éticas importantes dentro del mismo. Si el sistema funciona mal, se pueden cometer perjuicios importantes para la ciencia, y aquí creo que a todos los que nos importe la calidad de la ciencia, deberíamos hacernos preguntas como las siguientes: ¿Qué debería ser una producción científica razonable en nuestra área? (En cuanto a cuántos productos deberían ser esperados y cada cuánto tiempo). ¿Qué tiempos deberían tomar los diferentes procesos relacionados con estas producciones? ¿Se pueden hacer más eficientes algunos de esos procesos? ¿Más rápidos? ¿La IA realmente nos ayuda a eso? ¿O a qué podría ayudarnos la IA en estos procesos u otros? ¿Generando texto con IA ayudamos a que esos procesos realmente sean mejores? ¿En qué sentido? ¿No se ganará precisión gramatical, pero se perderá profundidad? ¿Qué consideramos una investigación académica valiosa? ¿Debe ser perfecta en términos de redacción y sintaxis o debe ser interesante, original y profunda, aunque pueda tener algunos otros defectos? ¿Debe presentarse en una escritura “genérica” como la que producen las IAs necesariamente?

Muchas de estas preguntas tendrán diferentes respuestas, pero al final, cada quien deberá posicionarse sobre ellas, y desde esas respuestas podrán salir las guías para las directrices sobre el uso de la IA, me parece. Algunas de esas respuestas serán personales, y algunas institucionales, y cada revista tendrá que poner sus reglas, y con eso mostrará su posicionamiento al respecto también.

Y seguramente hay muchas más cuestiones sobre las cuáles reflexionar, pero lo dejaré aquí. Espero que estas observaciones sean interesantes.