Scroll Top

Libertad de uso de la IA

Tomàs BaigetTomàs Baiget, director de Ediciones Profesionales de la Información SL, España
18 de julio de 2025

En la revista Infonomy, que codirijo, no vamos a poner restricciones al uso de la IA. Al contrario, animaremos a l@s autor@s a utilizarla cuando crean que puede mejorar su trabajo.

Creo que muchas de las normas “defensivas” que se están publicando ahora son como poner puertas al campo. Reflejan el momento de transición en que nos encontramos: apenas estamos en los balbuceos iniciales de esta tecnología. La IA podrá tener acceso a todo lo que la Humanidad ha investigado y publicado, con una capacidad de análisis y síntesis muy superior a la nuestra. Lo importante es que sepamos cómo usarla para obtener buenos resultados, del mismo modo que aprendimos a usar bases de datos, hojas de cálculo, detectores de plagio o traductores automáticos.

Respetamos las recomendaciones del COPE, ICMJE, Nature, Elsevier, etc., que piden transparencia, declaración del uso y, evidentemente, no atribución de autoría a la IA. Nuestra postura no es contraria a la transparencia, sino a las restricciones innecesarias. No estamos promoviendo el uso oculto de la IA, sino que no creemos en poner limitaciones a priori. Alentamos el uso responsable y siempre con revisión humana. Si el autor lo considera pertinente, puede declarar el uso de IA, pero no lo exigimos como regla editorial fija.

Eso sí, la generación de ciencia base nueva —a partir de experimentos de laboratorio, trabajo de campo, encuestas reales— seguirá siendo responsabilidad de los humanos. La IA podrá ayudar a procesar datos y extraer conclusiones, pero no reemplaza el trabajo empírico.

Me queda la duda de si los humanos podemos hacer mejores encuestas que la IA, teniendo en cuenta que esta ya dispone de un conocimiento amplio de la sociedad. Tal vez, en ciertos contextos, pueda sugerir mejor diseño de preguntas, o incluso detectar sesgos con más precisión que nosotros.

Sabemos y hemos sufrido casos de alucinaciones o errores graves cometidos por IA generativas, sobre todo con referencias bibliográficas falsas. Por eso remarcamos que el autor es siempre responsable del contenido final. Igual que no aceptaríamos una tabla errónea generada con Excel, tampoco aceptaremos resultados sin verificar generados por IA. La revisión humana sigue siendo insustituible. Lo decía Karen anteayer, hay que revisar siempre el resultado final. Esto es válido para todo software, sea una hoja de cálculo, un traductor automático… o incluso un traductor humano. Un buen investigador debe revisar todo antes de darlo por finalizado. Y editores y evaluadores, revisarlo a fondo, como siempre, como hacíamos antes de la IA.

Sabemos del “ghostwriting algorítmico” o el uso de IA para crear textos sin esfuerzo real del autor, pero eso no es nuevo. Ya existía con tesis compradas y plagios manuales. Nuestro enfoque es que el contenido sea original, coherente, revisado y útil para la comunidad. El medio usado para producirlo no debería ser un criterio excluyente per se.

En Infonomy preferimos centrarnos en la calidad del artículo y en la revisión editorial. Si el texto es bueno, válido, coherente y ético, damos por cumplido el objetivo.

Lluís CodinaLluís Codina, Profesor honorario, Universitat Pompeu Fabra, Barcelona
https://www.lluiscodina.com

18 de julio de 2025

Creo que la comparación no es con el uso de hoja de cálculo. Dadas las prestaciones de la IA generativa, la comparación es con usar  contenidos procedentes de la Wikipedia o con usar el contenido hecho por un tercero a cambio de un pago.

Dicho esto, es muy interesante el proceso (¿experimento?) abierto por Infonomy. Tú, Tomàs, Siempre has sido un innovador y ahora parece ser un buen momento para innovar.

Ojalá que las garantías indicadas en el anuncio sean suficientes y que los trabajos sean de calidad. El riesgo es que haya más trabajos que destruyan la cadena de atribuciones o que aumenten los contenidos creados en base a “copiar y pegar”.

La experiencia será interesante. Eso con toda seguridad y puede ayudar mucho en el debate en un sentido u otro.

Giorgio P. De MarchisGiorgio P. De Marchis, Universidad Complutense de Madrid, Facultad de Ciencias de la Información. Avenida Complutense, s/n, 28040. Madrid, Spain
18 de julio de 2025

Aprovecho el correo de Tomàs para mandar un post que había escrito, compartido en una versión anterior con Rafael Repiso, pero no había enviado. Va en línea con la propuesta de Tomàs:

Todos coincidimos en que la inteligencia artificial (IA) ha llegado para quedarse. Sin embargo, puede que no todos compartáis mi opinión de que la IA también ha llegado para analizar datos, redactar resultados y escribir artículos completos. No veo inconveniente en que la IA desempeñe esas tareas. El sistema del publish or perish y la incorporación de cada vez más académicos, medios de difusión (p.ej., revistas) y países en el ecosistema científico han generado una inflación de publicaciones. Sin querer entrar en el debate sobre este importante tema, es cada vez más cierto que la IA es la única entidad capaz de gestionar eficientemente la cantidad de información generada. Los humanos ya no llegamos a procesar eficientemente tanta información y tenemos que aplicar criterios cada vez más específicos para limitar la población, si queremos tener una muestra representativa.

A pesar de que se trata de un tema complejo y cualquier simplificación deja de tener en cuenta elementos importantes, creo que los principales frenos para aceptar artículos cuyo borrador ha sido escrito por la IA no están necesariamente en la tecnología en sí, sino en otros ámbitos. En este post, propongo considerar dos perspectivas clave:

  1. a) el sistema editorial, y
  2. b) las universidades / empleadores.

a) Desde el punto de vista editorial, el desafío radica en publicar documentos valiosos en cuanto a aportación original velando por la calidad científica, lo cual requiere principalmente garantizar la fiabilidad y validez del material que se publica, y como escribe Lluís Codina, la transparencia y la trazabilidad. El formato académico trata de garantizar estos términos a través de, por ejemplo, el sistema de citas-referencias, la revisión por pares, los datos en Open Access y las notas aclaratorias.

Toda organización tiene la obligación de implementar sistemas de control de calidad, desde una envasadora de pepinos, una fábrica de chips o una universidad. Así, las editoriales tienen el deber de implementar sistemas de control de calidad. Sin embargo, la responsabilidad en el contenido de un artículo recae en los autores, quienes deben verificar que las fuentes dicen lo que el texto que las citas afirma, proponer o aceptan un diseño, se aseguran que los datos han sido recogidos según determinadas reglas y los análisis son rigurosos. La IA puede escribir un análisis a partir de los datos que se les dan (u obtener los datos), pero los autores son los responsables de verificar los datos y del texto que mandan a la editorial, así que tienen que revisar todas las afirmaciones presentes en el texto. Las editoriales serían la policía que controla que el tráfico fluye según lo previsto y que los usuarios conocen y aplican las reglas de conducción.

b) Desde la segunda perspectiva, universidades y empleadores en general, el objetivo es contratar a profesionales responsables, competentes, éticos e innovadores / originales; en otras palabras, a profesionales valiosos. Uno de los criterios de contratación es justo la publicación de artículos científicos, por lo que ser autor otorga méritos y tiene implicaciones académicas, sociales y en cuanto a la obtención de financiación (ICMJE, 2025). Si un investigador se limita a publicar artículos poco valiosos con la ayuda de la IA y sin revisión de la fiabilidad y validez, sin revisión crítica y, por ello, sin aportación propia, quizá no sea el perfil que las instituciones desean incorporar porque sería un profesional que solo aporta caos al sistema.

En todo este ecosistema, creo que la clave está en la responsabilidad. Esta idea es la misma que sostiene COPE. Para mi, no importa si un artículo ha sido escrito por una IA, lo importante es que sea valioso y el autor se haga responsable de todos los contenidos. Si el artículo no aporta nada valioso, las revistas no deberían publicar el artículo; si los contenidos están equivocados porque el autor no ha dedicado el tiempo necesario para revisar los contenidos, él o ella son los responsables. Un autor asume la responsabilidad total del documento. Esta es la razón por la que la IA no puede ser un autor: se diluiría la responsabilidad de los autores humanos, y eso llevaría a conductas poco éticas.

Como sabemos, la ciencia funciona en cadena, y es tan fuerte como el eslabón más débil de la cadena. Si un artículo está mal, invalidará muchísimos otros artículos. En este sentido, el sistema no se puede permitir que haya autores irresponsables (p.ej., no verificar todo el contenido del artículo). Por ello, se deberían aplicar sistemas de desincentivos de comportamientos irresponsables. En conclusión: los autores son los responsables últimos de los contenidos de los artículos, a pesar de que los mismos los haya escrito la IA. El sistema (p.ej., editoriales y empleadores) tienen que penalizar las conductas irresponsables.

De cara a los empleadores, además de la penalización de las conductas irresponsables, se debería premiar a las personas que verdaderamente innovan / son originales y que son concienzudas. La definición precisa de innovación merecería un debate aparte, pero aquí interesa decir que si un artículo innovador ha sido producido con la ayuda de IA y ningún otro académico fue capaz de generar algo similar, eso también indica que esa persona posee capacidades distintivas que otros no tienen.

Sé que es un tema en el que hay mucho desacuerdo. Rafael Repiso, a quien envié un borrador de este post, me dijo que le cuesta aceptar que nos vamos convirtiendo en meros revisores de la IA (no lo dijo exactamente con estas palabras).

Personalmente, lo veo inevitable y no me provoca conflicto. Nosotros podemos generar la idea, proponer el diseño, recoger datos y debemos revisar el producto (algo que lleva mucho tiempo), esto es, no somos actores pasivos. En cambio, confieso que me genera una emoción de tristeza pensar que una máquina llegará a generar mejores ideas que las nuestras, las seleccionará sola y las implementará sin necesitarnos mientras nosotros la observemos atónitos. Cuando haga todo el proceso y se responsabilice de los contenidos, entonces será la autora y nosotros meros lectores.

Rafael también me ha dicho que Abel Packer ha comentado algo similar al contenido de este post en el CRECS de Granada de mayo (por desgracia no pude asistir porque tenía que atender el final del curso). El documento que ha enviado Raquel Kritsch hace unas semanas parece que va en la misma dirección:
https://www.scimagoepi.com/uso-de-la-ia-en-la-evaluacion-de-manuscritos

a pesar de que no he logrado comprenderlo bien porque no leo portugués. También la política de la revista Apuntes del CENES parece que indica pasos hacia el mero control de la responsabilidad de los autores.

En todo proyecto organizacional, el gasto evitado se puede considerar como un beneficio. Personalmente, creo que permitiendo un uso más activo de la IA nos ahorraremos mucho tiempo en el recorrido hacia la ciencia del futuro.

De nuevo, soy consciente que se trata de un tema polémico y no afirmo tener razón al tiempo que no creo que otra persona la tenga, solo es un punto de vista tan válido como otro. Gracias.

José M. Hernández ÁlavaJosé M. Hernández Álava, Editor-in-Chief, DYNA journals
https://www.revistadyna.com
18 de julio de 2025

Gracias por tus acertados comentarios Tomàs

No sé si es lo correcto en este tiempo de cambios convulsos, pero prefiero ser un poco más conservador y obligar a los autores a indicar donde y como han usado la AI. Si han usado la herramienta correctamente, no tendrán ningún problema en indicarlo.

Lluís CodinaLluís Codina, Profesor honorario, Universitat Pompeu Fabra, Barcelona
https://www.lluiscodina.com
18 de julio de 2025

Creo que el modelo IMRyD tiene que ampliarse y añadir un apartado para la IA, de modo que tendrá que ser el modelo IMIARyD. En breve va a pasar que un artículo que no declare nada en relación a la IA será sospechoso de ocultación. Tendrá el riesgo de no ser creíble.

Pero hay que tener en cuenta qué sucede si se la IA se usa mal. Por eso, junto a la casi obligación de utilizarlo debería ir de la mano la obligación de explicar cómo se ha usado.

Mal usada la IA, esto es, “por copiar y pegar”, además de destruir la cadena de atribución, premia a quien no ha hecho nada, lo que va en contra del concepto de autoría y del sentido académico de mérito. Asignaría recursos a quien no los merece. Aumenta la probabilidad de errores conceptuales y factuales, pues la IA no tiene conciencia. Por otro lado, la mera reproducción, reduce la innovación pues la IA se limita a sintetizar una parte de lo que ya se ha publicado, y no sabemos (no lo sabe nadie) cómo ha elegido esa parte ni si la ha sintetizado bien.

Así pues, uso de IA sí, sin duda, hasta el punto de que en poco tiempo va a ser casi obligatoria, pero igual de obligatoria debe ser la transparencia. Las operaciones de “copiar y pegar” deben seguir siendo rechazadas como hasta ahora. No importa que el copiar y pegar venga de un artículo de la Wikipedia, de un trabajo ajeno o de una IA. Es inadmisible por igual por los motivos indicados y por la ética del mérito, que es inherente a la academia, de lo contrario daremos recursos a quienes no los merezcan.

Otra cosa será si algún día llega la singularidad y la IA adquiere conciencia. Ese día habrá que reescribir todas las reglas. Pero de momento, ni está ni se la espera.

Karen González FernándezKaren González Fernández, Profesora-investigadora, Secretaria editorial de Tópicos, Revista de Filosofía. Universidad Panamericana, México.
https://revistas.up.edu.mx/topicos

Muchas gracias por las reflexiones.  Tanto en esta cadena de mensajes como en la otra, que también se ha referido a este tema.

Creo que en términos de publicación, aún hay muchos elementos con los cuales se debería tener cuidado antes de darle una carta de bienvenida tan abierta a la IA.  Comprendo el sentido en el que se sostiene que esta puede ser una herramienta muy buena para tener en cuenta la mayor parte de la producción científica, pero también corremos el riesgo de generar una burbuja en internet, y citar solo la investigación que se dé en ciertas plataformas y dejar fuera muchas investigaciones que también podrían ser valiosas.  Igual que ideas que pudieran venir realmente de las personas y para las que no se hayan usado esas herramientas.

Además, hay diversos métodos para tratar datos que también podrían ser útiles para procesar la información que hay en internet y no solo las herramientas de IA.

Considero también que podría haber muchas diferencias con respecto a las disciplinas mismas, posiblemente no será lo mismo pedirle a un ingeniero que a un filósofo lo mismo en términos de escritura; y ahí también puede haber muchas variaciones con respecto a lo que significa investigar y a lo que significa generar y, de hecho, tener, los resultados de la investigación.

Por otro lado, aunque puede ser cierto que esta discusión está centrada en la generación, revisión y publicación de los artículos académicos, las universidades también tienen que considerar los procesos humanos para realizar la investigación, y aprender a leer y escribir lo mejor posible, así como saber distinguir cuándo puede haber referencias bibliográficas importantes, aunque no aparezcan en las bases de datos que rastrea la IA, seguirá siendo algo muy importante.

Entiendo que estamos en un momento de transición, pero por lo mismo, hay que ser muy cuidadosos, estas herramientas de IA no son eficientes como lo es una calculadora o una hoja de Excel, y como señalan, no comprenden lo que generan y no tienen conciencia; en consecuencia, hay que tener cuidado mucho cuidado con no dejarnos llevar por un exceso de optimismo en la confianza en estas herramientas de IA y que nos arriesguemos por eso, a perder cuestiones importantes en la investigación científica que ha costado mucho trabajo crear y sostener.

En ese sentido, coincido en que ser muy cuidadosos con las evaluaciones y  pedir transparencia en el uso es muy importante. Como señalan, nada está definido absolutamente aún, pero espero que estas opiniones apoyen la consideración de diversos puntos de vista y problemas a considerar.

Lluís CodinaLluís Codina, Profesor honorario, Universitat Pompeu Fabra, Barcelona
https://www.lluiscodina.com

Para seguir con esta línea tan fecunda iniciada por Tomàs Baiget, a quien siempre debemos su mirada pionera en tantas cosas, quisiera añadir un efecto que tiene el uso de las IA en trabajos académicos y que temo que no se suele tener en cuenta, o tal vez para ser más equitativo, justo ahora se empieza a tener en cuenta.

Me refiero a lo que se denomina deuda cognitiva y que puede generar la siguiente paradoja: hasta ahora, cuando un investigador desarrolla una investigación, el investigador se vuelve más sabio. Con la IA es posible que el investigador siga estando en el mismo sitio e incluso que se vuelva más tonto, pues justo es lo que provoca la deuda cognitiva.

¿Como es esto posible? Fácil. Porque quién ha avanzado en el conocimiento, si es que se puede decir así, es la IA, pero el investigador humano no ha avanzado nada. Voy a plantear un caso especialmente claro: las revisiones sistemáticas como las scoping review u otras. Estos trabajos de revisión se consideran investigaciones en sí mismas dado el exigente protocolo que plantean y dada la metodología utilizada que implica un proceso de extracción de datos sistemático seguido a su vez por otros procesos de interpretación crítica y de síntesis final de la evidencia.

El efecto de una scoping review o de una revisión sistemática es doble: aportan una síntesis de la evidencia que hace avanzar el conocimiento en un ámbito determinado al detectar patrones, identificar regularidades y tendencias, detectar oportunidades de investigación e incluso al ayudar a confirmar o desmentir teorías.

El segundo efecto es que el autor de la scoping se ha vuelto una persona distinta de la que la empezó. Al final del proceso, el autor de la revisión ha adquirido un conocimiento experto en su campo. Ha pasado de ser un principiante con un discurso superficial, a tener un conocimiento sólido que le dota de un discurso sofisticado y con capacidad de diseñar investigaciones originales y productivas. De paso, el investigador ha desarrollado su pensamiento crítico pues se ha visto obligado a analizar, interpretar y categorizar las investigaciones que ha examinado. Ha desarrollado así una habilidad compleja que pone en juego mecanismos cognitivos muy exigentes.

Pues bien, actualmente, hay una oferta en el mercado de sistemas de IA que pueden desarrollar perfectamente, de inicio a fin, una revisión de la literatura de tipo sistemático, incluyendo revisiones del tipo scoping review literalmente apretando un botón. ¿Qué sucede con el investigador que utiliza una IA para su trabajo de revisión si utiliza el contenido así generado por la IA mediante copiar y pegar, en lugar de hacer él la revisión? Pues que no ha aprendido nada. No solo no ha aprendido nada, tampoco ha fortalecido su pensamiento crítico ni ha desarrollado sus habilidades cognitivas. Puede que la IA haya “aprendido” algo, pero el investigador, desde luego que no. Es posible además que su capacidad cognitiva general se haya degradado, por la misma razón que nuestra salud general se degrada si en lugar de tener una vida activa nos pasamos el día en el sofá.

Es como si una persona que necesita hacer ejercicio se dedica a mirar videos de gente haciendo ejercicio. ¿De qué le sirve para su salud física? Utilizar un contenido por copiar y pegar es lo mismo, no aporta nada al progreso intelectual y cognitivo del investigador, y además se hace cómplice de la destrucción de la cadena de atribución y del riesgo de propagar errores al no verificar nada.

Debemos usar la IA, esto está claro. Pero solo podemos hacerlo en el contexto académico si evitamos el “copiar y pegar” y en su lugar incorporamos protocolos exigentes de verificación, evaluación, atribución y edición. Es por esto que los editores de revistas harían bien en incorporar una sección de IA en la estructura esperada en los manuscritos que reciben, donde los autores deberán explicar qué IA han utilizado, cómo la han utilizado y qué acciones han aplicado para hacerse totalmente responsables del contenido de su artículo.

Con esto, la ciencia aprovecha las ventajas de la IA sin pagar un precio inasumible en el corto y el medio plazo y evitando así una acumulación de problemas en el largo plazo que pueden convertir la publicación académica en una ciénaga. Cosa que espero nunca sucederá, pero para que no suceda, tenemos que prevenir a tiempo.

Tomàs BaigetTomàs Baiget, director de Ediciones Profesionales de la Información SL, España

Estimado Lluís:

Tienes toda la razón: no se puede comparar la IA con una hoja de cálculo como Excel. Es una herramienta muchísimo más poderosa, con implicaciones mucho más profundas, que no pueden tomarse a la ligera. También coincido en que, al usarla, corremos el riesgo de perder capacidad de análisis por falta de entrenamiento. En este sentido, aunque tampoco sea del todo comparable, los humanos hemos ido dejando de hacer muchas cosas porque las máquinas las hacen más rápido y mejor.

En marzo de 2023, OpenAI publicó el informe técnico GPT-4 Technical Report donde mostraba que GPT-4 obtenía puntuaciones altísimas en tests estandarizados diseñados para humanos. Por ejemplo, alcanzó el percentil 99 en el GRE Verbal (Graduate Record Examination), el 93 en el SAT (Scholastic Assessment Test, usado para entrar en la universidad) de lectura y escritura, y el 88 en el LSAT (Law SAT), el test de acceso a Derecho en EE. UU.
https://openai.com/es-ES/index/gpt-4-research

Algunos han interpretado que este rendimiento se correspondería con un IQ aproximado de 155 para tareas lingüísticas específicas, aunque esto debe tomarse con cautela, ya que los tests de inteligencia fueron diseñados para humanos y no son directamente aplicables a modelos de lenguaje.

Cada nueva generación de IA se acerca más a formas de razonamiento que nos resultan familiares. El State of AI Report 2024 señala que estamos en una fase exponencial en capacidades cognitivas, y que los próximos modelos superarán al rendimiento humano medio en tareas complejas de forma sistemática. Se dice que solo hemos visto la punta del iceberg.
https://www.stateof.ai/2024

Tal vez sea solo una elucubración por mi parte, pero viendo esta evolución, creo que dentro de poco las IA podrán realizar scoping reviews (y systematic reviews) de forma más exhaustiva y eficiente que el promedio de los investigadores humanos. Quizá tengamos que aceptar que esas tareas puedan automatizarse en gran parte, y que nuestro papel pase a ser el de validar, interpretar y tomar decisiones sobre los resultados.

Lluís CodinaLluís Codina, Profesor honorario, Universitat Pompeu Fabra, Barcelona.
https://www.lluiscodina.com

Querido Tomàs,

Muy buenas aportaciones. Voy a intentar un resumen de algunas de las cosas comentadas hasta ahora, por supuesto, totalmente sesgado (por algo soy humano):

¿Es conveniente usar la IA en la academia?

Sí. Es la recomendación casi unánime que hacen los expertos y los principales organismos, incluyendo la Comisión Europea y la Unesco por mencionar a dos de los grandes. Usar la IA en la academia significa usarla tanto en la docencia como en la investigación, por tanto, debe tener su reflejo en los reportes de investigación, que son los artículos científicos.

¿Debe declararse el uso de la IA en la investigación y por tanto en artículos científicos?

Depende. Si se ha usado para generar resúmenes, obtener ideas iniciales, traducir textos, mejorar la redacción, resumir informes, etc. no es necesario. Son usos auxiliares que no necesitan ser declarados. Si los autores lo desean, pueden hacerlo, no obstante. Y en caso de duda, se explica y listo.

¿Debe declararse el uso de la IA en aportes sustanciales o significativos?

Sí. Es imprescindible que los autores expliquen el uso de la IA como parte de la metodología si el uso es significativo. Si tienen dudas, mejor explicarlo. ¿Qué forma parte de la explicación? Depende de cada caso, pero podría ser la IA utilizada, la fecha y el prompt,  y si hace al caso, en el dataset, la respuesta original de la IA. Todo ello, por la trazabilidad y la replicabilidad que esperamos de todo artículo científico.

¿Se puede usar contenidos generados por una IA “por copiar y pegar” como si fuera nuestro?

No. La IA se puede usar de muchas formas en las que no se genera un texto. Aquí, cero conflictos (se debe declarar igualmente si es un uso significativo). Pero en muchos usos, la IA genera un contenido textual que los autores pueden desear utilizar, pero en tal caso, no pueden hacerlo por “copiar y pegar” como si fuera nuestro. La razón es la misma por la que no se puede hacer tal cosa con textos tomados de la Wikipedia o de terceros en general. Hacerlo, esto es, tomar un contenido textual generado por una IA y pegarlo tal cual como si fuera nuestro equivale a plagio.

¿Se puede incorporar contenido generado por una IA en nuestros trabajos?

Sí. Pero antes debemos verificar las fuentes, evaluar las ideas, atribuir las ideas tomadas de terceros a los autores originales y editar el contenido a fin de que sea total responsabilidad de los autores, salvo cita literal o parafraseo.

¿Disponemos de protocolos sobre cómo incorporar contenido textual generado por una IA en nuestros trabajos?

Sí. Tenemos la normativa habitual, por ejemplo, APA según la cual podemos citar fragmentos literales, siempre que hagamos la atribución correspondiente al autor original (no a la IA) y marquemos con claridad el inicio y el fin de la cita literal. También podemos parafrasear ideas, conceptos, teorías, etc., obtenidas gracias a la IA por el procedimiento habitual de atribución (p. e. normas APA), pero no a la IA, sino al autor original para no destruir la cadena de atribución.

¿Podemos usar  texto generado por sistemas de IA de los que no aportan fuentes?

No. Si pensamos usar los contenidos textuales generados por una IA en trabajos académicos debemos usar sistemas de IA de tipo RAG que consultan bases de datos y hacen búsquedas en Internet y proporcionan las fuentes que han utilizado para generar sus síntesis narrativas. Ejemplos de sistemas RAG son Google Gemini (en el modo Deep Research) o Perplexity. En general, cualquier IA especializada en usos académicos, como Scispace, Epsilon, Scite o Elicit. Sin fuentes no podemos verificar ni evaluar, ni mantener la cadena de atribución.

¿Será lo normal usar la IA en artículos científicos en el futuro?

Sí. Tan normal, que seguramente no usarla será lo que necesitará explicación o levantará sospechas de ocultación. Hace poco, en un seminario sobre este tema expliqué que imagino que dentro de cinco años (o antes) esta pregunta del miembro de un tribunal de tesis podrá tener lugar: “usted no menciona ningún uso de la IA en su tesis doctoral, ¿cómo es esto posible?”

¿El modelo IMRyD necesita ampliarse?

Sí. La estructura de un artículo científico en el futuro (ya, en realidad) podría incorporar un nuevo apartado denominado IA. O sea, el futuro (que es ya) IMRyD podría ser IMIARyD.  Este apartado se activará si los autores han hecho un uso significativo, en cuyo caso deberán explicar en qué ha consistido, por transparencia, pero también para aportar ideas a otros investigadores. Algunas revistas podrán decidir (pero estoy especulando) que solo aceptarán manuscritos con el apartado IA incluido, por razones de calidad y transparencia.

Dos temas, más especulativos

Si en algún momento tiene lugar la singularidad, esto es, si en algún momento aparece una IA con conciencia todo lo anterior tendrá que reescribirse. Hay expertos que niegan que pueda aparecer en el futuro porque dicen que sin saber qué es la conciencia es imposible programarla. Pero otros, están trabajando ya con esa posibilidad y están intentando concebir unos derechos humanos para las IA. Se llamarán tal vez derechos de seres con conciencia, o algo así, pero hay investigadores serios trabajando en ello. Entonces, habrá dos especies inteligentes sobre la Tierra y lo lógico (ya que están ambos dotados de razón) será que colaboren y no haya diferencia entre autores humanos y autores IA. Bueno, sí, tal vez habrá una, que los autores IA serán tal vez más fiables.

La deuda cognitiva hay que tomarla en serio, como la humanidad se tomó en serio el momento en que una parte de los trabajos dejaron de usar la fuerza física y se inventaron los gimnasios. Determinadas investigaciones, aunque las pueda hacer la IA es aconsejable que las hagan también los investigadores humanos, el ejemplo perfecto con las revisiones de la literatura. Luego, si hace falta, se comparan los resultados con la que haya hecho la IA y se hace una meta síntesis. Y seguro que hay otros casos en los cuales, incluso con una IA con prestaciones iguales o superiores, a los investigadores humanos les interesará hacer ellos su propia investigación y, como digo, luego se pueden comparar y las discrepancias se resuelven por consenso.

Sobre las revisiones de la literatura con IA

Una experiencia reciente con un sistema de IA para hacer revisiones de la bibliografía la he explicado aquí:
https://www.lluiscodina.com/ia-revisiones-literatura

Mi dictamen es que estas revisiones pueden ser útiles, pero aún no equivalen a trabajos de investigación, pues carecen de la validez y de la fiabilidad (en el artículo está explicado) que tienen las hechas por humanos. Pero esto puede cambiar a la velocidad que está yendo todo esto.

Una curiosidad para acabar

En estos momentos, son mucho más razonables las IA en temas como los derechos humanos, la crisis climática, el terraplanismo o el negacionismo de las vacunas que una parte, por desgracia, cada vez más grande de la humanidad. Esto es, las IA están alineadas con los derechos humanos de una forma que me gustaría ver en algunos colectivos, y lo mismo con otros valores. Para algunos de estos temas prefiero interactuar con una IA que con ciertas personas. No obstante, esta alineación está programada por seres humanos. En cualquier momento, si no estamos atentos, se pueden programar en otra dirección, y por supuesto, ingenieros de prompt hábiles pueden hacer que la IA más alineada con los derechos humanos haga una defensa del Mein Kampf. No tienen conciencia.

Jesús Lauro Paz LunaJesús Lauro Paz Luna, Ciencia y Tecnología. Editor Estudios Sociales, Revista de Alimentación Contemporánea y Desarrollo Regional, México
20 de agosto de 2025

Me gustaría tener una idea de qué porcentaje de IA se puede admitir en un artículo, en un ensayo y en una reseña. O si se puede decir porcentajes en ciertas partes de la elaboración de cada uno  de estos o si se necesita una declaración de uso de IA. Aprecio mucho la atención y los comentarios. Saludos.