0

Por Dra. Daniela Ovadia

La noticia de que varios científicos han incluido a OpenAI (el consorcio que ha desarrollado varios sistemas de inteligencia artificial, entre ellos Chat GPT) como coautores de artículos científicos ha suscitado reacciones inmediatas tanto de la comunidad investigadora como de los editores de revistas revisadas por pares. Chat GPT no es la primera inteligencia artificial que se convierte en coautora de un artículo científico, ya el año pasado apareció en un portal de preimpresión un artículo escrito también por el bot GPT-3, precursor del sistema que en las últimas semanas ha intrigado y preocupado a muchos productores de contenidos, desde periodistas a científicos.

Y ni siquiera es el más curioso de los autores, ya que la crónica de la producción científica incluye entre los coautores de artículos científicos a animales y personajes inventados con nombres graciosos o irónicos, empezando por el emblemático caso del físico estadounidense William Hoover, que incluyó entre los coautores de algunos de sus artículos a su colega Stronzo Bestiale (expresión que Hoover había oído por casualidad durante un viaje a Italia). ¿Por qué tanta inquietud ante lo que parece ser una evolución de la tecnología en gran medida esperada?

Responsabilidades del autor

Entonces, ¿por qué tanta inquietud ante lo que parece ser una evolución de la tecnología en gran medida esperada? La respuesta está en la definición de autor de un artículo científico, fruto de años de evaluación en el ámbito de la ética de la investigación científica y de los numerosos casos de fraude científico, algunos de los cuales (los más escandalosos) se basan en datos totalmente inventados.

En ocasiones, el fraude científico fue cometido por unos pocos participantes en la investigación, pero la presencia de varios autores hizo complejo atribuir responsabilidades precisas a cada uno de ellos. Por este motivo, la norma actual es que todos los autores de un artículo científico son responsables de cada parte del mismo y están obligados a revisarse mutuamente.

Hay algunas excepciones a esta regla (como los grandes consorcios que firman ensayos clínicos con miles de nombres), mitigadas por el requisito, cada vez más común, de especificar, al pie de cada artículo, cuál ha sido la contribución de cada autor, independientemente de su posición en la lista de coautores.

Requisitos de autoría

En la versión más reciente de las guías, que se han actualizado unas 20 veces desde 1979, el Comité Internacional de Editores de Revistas Médicas (CIDRM) recomienda basar la evaluación de la autoría en 4 criterios; por lo que para figurar como autor, hay que:

  1. Haber contribuido sustancialmente a la concepción o diseño del trabajo, o a la adquisición, análisis o interpretación de los datos.
  2. Haber redactado el artículo o haberlo revisado críticamente, añadiendo contenido intelectual importante.
  3. Haber dado aprobación final a la versión que se publicará.
  4. Haber aceptado responsabilizarse de todos los aspectos del trabajo, garantizando que las cuestiones relativas a la exactitud o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente.

Aunque estas normas se aplican principalmente en el sector biomédico, también se han extendido a otras disciplinas a través de instituciones como el Comité de Ética de las Publicaciones.

Una herramienta digna de mención

Volviendo a los sistemas ChatGPT y generativos (es decir, capaces de generar textos a partir de las complejas leyes que rigen el lenguaje natural), su uso parece estar reñido con la mayoría de las normas que definen el derecho a señalarse como autor, en primer lugar la de responsabilizarse de los resultados obtenidos. Esta es la dirección que están tomando las distintas editoriales: tras la postura de Nature, que decidió no aceptar a la inteligencia artificial como autor, otras revistas como JAMA también han seguido el mismo camino.

Esto no significa que la herramienta no pueda utilizarse: está permitida, pero debe mencionarse como tal en la sección dedicada a las metodologías con las que se realizó el estudio, como se hace con cualquier herramienta.

Pero los problemas no han terminado, sobre todo en ámbitos en los que la exactitud de la información es crucial.

"La comunidad editorial académica no tardó en expresar su preocupación por el posible uso indebido de estos modelos lingüísticos en las publicaciones científicas", escriben los autores del editorial en JAMA. "Algunos han experimentado planteando a ChatGPT una serie de preguntas sobre temas controvertidos o importantes (por ejemplo, si las vacunas infantiles causan autismo), así como cuestiones técnicas y éticas específicas relacionadas con la publicación. Los resultados mostraron que las respuestas textuales de ChatGPT a las preguntas, aunque en su mayoría bien redactadas, apenas se distinguían y estaban anticuadas o eran falsas o inventadas, carentes de referencias precisas o completas y, lo que es peor, con pruebas inventadas e inexistentes para respaldar las afirmaciones realizadas.

Además, los textos generados basándose en información ya publicada podrían entrar en la definición de plagio científico, a pesar de que herramientas como Chat GPT son capaces de recrear el texto con tal variabilidad que no pueden ser detectados por los programas antiplagio normales.

Por otro lado, "OpenAI reconoce algunas limitaciones del modelo lingüístico, entre ellas que proporciona respuestas plausibles pero incorrectas o sin sentido, y que la reciente versión forma parte de una implementación iterativa abierta destinada al uso humano, la interacción y la retroalimentación para mejorarlo". En esencia, dicen los expertos, el modelo no está preparado para ser utilizado como fuente de información fiable sin una cuidadosa supervisión y revisión humana, al menos en el campo de la medicina.

Cuestiones éticas más amplias

Sin embargo, hay otras cuestiones éticas sobre las que la comunidad científica tendrá que reflexionar, ya que la herramienta no hará sino mejorar con el tiempo. Por ejemplo, una herramienta de este tipo podría salvar la brecha lingüística entre los científicos angloparlantes y todos los demás, facilitando la publicación de investigaciones realizadas y escritas en otros idiomas.

Por otro lado, existe un problema objetivo de sobreproducción de contenidos científicos, de tal forma que hace casi imposible que un experto se mantenga al día de los avances en su propio campo disciplinar, y es difícil ver por qué la comunidad de científicos debería promover una herramienta que aumenta la velocidad y la cantidad de artículos, mientras que podrían estar interesados si permitiera hacer ciencia de mejor calidad y mayor significación estadística.

Por último, el perfeccionamiento de estas herramientas podría hacer que la capacidad de escribir un artículo científico pasara de ser un requisito previo para hacer ciencia a convertirse en una habilidad accesoria potenciando las habilidades de verificación de datos y estructuras textuales para mantener intacta la responsabilidad humana sobre estos productos del intelecto.

Mientras tanto, cualquiera que esté planeando un artículo asistido por inteligencia artificial debería seguir las recomendaciones que los editores han estado compartiendo estos días:

  • Las secciones creadas con inteligencia artificial deben estar adecuadamente especificadas y la metodología utilizada para generarlas debe explicarse en el propio artículo (incluyendo también el nombre y la versión del software utilizado, en aras de la transparencia).
  • Se desaconseja encarecidamente la presentación de trabajos elaborados íntegramente mediante inteligencia artifical, sobre todo si se trata de revisiones sistemáticas de la literatura, entre otras cosas por la inmadurez del sistema y su tendencia a perpetuar los sesgos estadísticos y de selección presentes en las instrucciones del creador del sistema, a menos que los estudios en cuestión tengan por objeto precisamente evaluar la fiabilidad de tales sistemas (objetivo que, obviamente, debe explicitarse en el propio trabajo).
  • Se desaconseja la generación de imágenes y su uso en artículos científicos porque es contrario a las normas de ética de las publicaciones científicas, a menos que estas imágenes sean en sí mismas objeto de la investigación.

Este contenido fue publicado originalmente en Univadis, parte de la Red Profesional de Medscape.

Cuida tus árboles, en Belgrado tener un árbol líquido cuesta más de tres mil dólares

Noticia Anterior

El índice de masa corporal ya no sirve mucho como medida para ver la obesidad

Siguiente Noticia

Comentarios

Deja un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *