Los científicos saben lo que está ocurriendo, aunque ellos mismos no lo hagan. Algunos de sus colegas se valen de la IA o chatbots, como ChatGPT, para escribir la totalidad o parte de sus trabajos.
En un artículo publicado el miércoles en la revista Science Advances, Dmitry Kobak, de la Universidad de Tubinga, y sus colegas reportan que han encontrado una forma de rastrear la frecuencia con que los investigadores utilizan chatbots de inteligencia artificial para escribir los resúmenes de sus artículos.
Las herramientas de IA, dicen, tienden a utilizar ciertas palabras —como “profundiza”, “crucial”, “potencial”, “significativo” e “importante”— con mucha más frecuencia que los autores humanos. (Estas palabras en inglés, el idioma del estudio, son, respectivamente, delves, crucial, potential, significant e important).
El grupo analizó el uso de las palabras en más de 15 millones de resúmenes (o abstracts) biomédicos publicados entre 2010 y 2024. Esto les permitió detectar el aumento de la frecuencia de ciertas palabras en los resúmenes.
Los hallazgos se enmarcan en un debate en las ciencias sobre cuándo y cuándo no es apropiado utilizar ayudantes de IA para escribir artículos.
Cuando se introdujo ChatGPT en noviembre de 2022, un grupo de palabras empezó a aparecer con una frecuencia inusual. Era un vocabulario, informan los investigadores, que no se utilizaba con tanta frecuencia antes del lanzamiento de ChatGPT. Deducen que el cambio en el empleo de palabras es un signo que delata el uso de IA.
IA y sus 454 palabras clave
En 2024, hubo un total de 454 palabras utilizadas excesivamente por los chatbots, informan los investigadores. Basándose en la frecuencia de las palabras preferidas por la IA, Kobak y su equipo calculan que al menos el 13,5% de todos los resúmenes o abstracts biomédicos parecían haber sido escritos con la ayuda de chatbots. Y hasta el 40% de los abstracts de autores de algunos países que escribían en algunas revistas menos estrictas estaban generados por IA.
Estas cifras, dijo Adam Rodman, director de programas de IA del Centro Médico Beth Israel Deaconess de Boston, “son casi con toda seguridad un límite inferior”. No tienen en cuenta la edición humana que se haya hecho a partir de lo generado por el chatbot ni la edición del chatbot de lo que escribieron los humanos. Rodman no participó en el estudio.
En una entrevista, Kobak dijo que estaba “algo sorprendido” de ver tanto uso de la IA en los abstracts, las síntesis de los resultados y las conclusiones de los artículos, que a menudo son lo único que lee la gente.
Fuente: El Universal
Leave A Comment