Inteligencia artificial generativa y evaluaciones por pares

Una vez alcanzados los objetivos propuestos en una investigación científica, llega el momento de elaborar los productos que permitirán su divulgación; de acuerdo con los modelos que se tienen en Colombia para la medición de la ciencia —establecidos por Minciencias—, estos pueden ser resultados de actividades de generación de nuevo conocimiento, tecnológicos patentados o certificados, derivados de investigación-creación, entre otras tipologías.

Particularmente, los productos que surgen de actividades de generación de nuevo conocimiento, como artículos de investigación, libros resultados de investigación y capítulos en libros de estas mismas características, cuentan con un proceso editorial que contempla múltiples acciones.

Con los avances tecnológicos de los últimos años y, en especial, en lo concerniente a la inteligencia artificial (IA) generativa, los procesos editoriales han sido impactados suscitándose controversias y retos, así como oportunidades para optimizar la labor de quienes trabajamos en este campo. Comenzamos a observar, como, por ejemplo, con preguntarle a la IA, es posible establecer si los textos postulados cumplen con los requisitos que se solicitan a los autores; como se generan libros completos que posteriormente son comercializados en nombre de autores de reconocimiento internacional, sin haber contado con su participación real; y la manera en que se rechazan propuestas de publicaciones porque la IA detecta alguna inconsistencia, sin que exista la revisión humana. Si bien no se descalifica esta práctica, resulta cuestionable que una persona delegue la decisión a la máquina.

Igualmente, empieza a evidenciarse la aparición de la IA en otras actividades fundamentales para la labor editorial académica, entre ellas, en la evaluación de pares. Esta última pretende conocer, de la mano de lectores expertos —que, además, son académicos—, si la obra cumple con ciertos criterios de forma y de fondo para ser publicada y, generalmente, se utiliza un formato para consignar el dictamen.

Una incoherencia en el estilo de escritura del par evaluador —vuelve aquí la importancia de la revisión humana—, adherida a un extracto que ha dejado en uno de los espacios en los cuales justifica su calificación a un criterio, en el cual se lee: “tal vez podrías responder a esta pregunta de la siguiente manera”, ha traído esa dosis necesaria de realidad a mi labor, abriéndome a pensar en la posibilidad de que la IA generativa o tecnologías asistidas por IA comienzan a ser utilizadas por los evaluadores.

La IA no se considera autora por sí misma; el evaluador continúa manteniendo el rol de autor del dictamen, sin embargo, debe declarar el uso de esta tecnología, de forma tal que permita a la editorial:

  1. Saber que el formato de evaluación fue diligenciado utilizando una herramienta de IA o de tecnologías asistidas por IA.
  2. Conocer el nombre del recurso utilizado.
  3. Enterarse de los motivos por los cuales el evaluador recurrió a esta.
  4. Estar al tanto de que la información fue tomada textualmente, y que, aunque haya sido de este modo, contó con la verificación del evaluador.
  5. Saber que el evaluador asume la responsabilidad por lo allí escrito.

Considerando estos puntos y con las claridades que se tienen hasta ahora, podría declararse un uso ético de la IA. Sin embargo, continúan vacíos importantes en lineamientos que tracen los alcances y límites de estas herramientas en la labor editorial académica, pues es inevitable pensar que aún no sabemos emplearla.

Nota legal:

Mohamed Hasan. (2 de junio de 2018). Bombilla-lugar-de-trabajo. https://pixabay.com/es/photos/bombilla-lugar-de-trabajo-3449671/

Deja un comentario