El Impacto de la IA en la búsqueda de información científica.
28 de mayo del 2025
En noviembre de 2022, la humanidad vivió un día histórico con el lanzamiento de ChatGPT, una herramienta tecnológica que revolucionó la forma en que interactuamos con las máquinas. Esta fue puesta a disposición del público en general, facilitando la ejecución de tareas en diversos campos del conocimiento, despertando debates sobre su capacidad para reemplazar trabajos humanos, especialmente aquellos repetitivos.
Las bibliotecas no han sido ajenas a esta revolución y con el objetivo de facilitar el acceso a información de calidad, las universidades han puesto a disposición de profesores y estudiantes bases de datos académicas y sesiones de formación. Estas iniciativas buscan que estos recursos se aprovechen al máximo y así encontrar publicaciones relacionadas con las consultas o temas de investigación de cada persona y proyecto.
En este contexto, la inteligencia artificial ha llegado para optimizar y simplificar los procesos de recuperación de información académica. Un ejemplo de ello es el Asistente de Investigación de i-RUS, disponible en el Sistema de Bibliotecas. Esta herramienta permite ingresar una pregunta en lenguaje natural y, a partir de ella, genera internamente una ecuación de búsqueda. Como resultado, el sistema presenta las cinco publicaciones más relevantes relacionadas con la consulta. Además, la IA puede utilizarse para perfeccionar ecuaciones de búsqueda, que pueden aplicarse tanto en i-RUS como en los más de 200 recursos electrónicos suscritos por la universidad.
Hersh (2024) indica algunos campos en los que la IA puede ser utilizada:
- Generación de palabras clave
- Sugerencia de términos relacionados
- Optimización de ecuaciones de búsqueda
- Recuperación de literatura científica
- Clasificación y organización de documentos
- Descubrimiento basado en la literatura (LBD)
No obstante, a pesar de estos avances, es importante tener en cuenta el fenómeno de la "alucinación", explicado por Lin et al (2024) como la característica que tiene la IA para presentar respuestas incorrectas pero convincentes. Esta situación suele deberse a una limitación en los datos de entrenamiento, lo que lleva al modelo a crear contenido nuevo sin una base sólida. Este es un aspecto crítico en el contexto académico y médico, ya que puede implicar la aparición de referencias, términos MESH o autores inexistentes.
Para mitigar este riesgo, es posible utilizar la base de datos Dimensions AI, un recurso electrónico diseñado para el descubrimiento de publicaciones académicas como artículos científicos, libros, capítulos, actas de conferencias y preprints. Esta plataforma permite identificar conexiones entre referencias, autores, instituciones y otros elementos clave del entorno investigativo. Una de sus herramientas más destacadas es Dimensions Research GPT, una versión del modelo GPT entrenada y conectada directamente con la base de datos Dimensions. Gracias a esta integración, al solicitar referencias o autores, genera respuestas a partir de información verificada, lo que reduce significativamente el riesgo de alucinaciones y mejora la confiabilidad de los resultados.
También, es esencial considerar las implicaciones éticas del uso de la IA en la investigación. Es responsabilidad de los investigadores y autores, comunicar claramente cómo se utiliza la IA y cuáles son sus limitaciones, asegurando la comprensión incluso por parte de no especialistas. Esto contribuye a mantener la confianza pública y facilita la rendición de cuentas. Asimismo, la privacidad y la protección de datos son fundamentales para garantizar el manejo responsable de la información personal, previniendo violaciones y accesos no autorizados. Por ello, la Universidad de los Andes ofrece a su comunidad acceso a Copilot con numerosos beneficios en protección de datos y políticas de uso.
Finalmente, la responsabilidad en la toma de decisiones es crucial e indispensable que cuente supervisión humana constante y no confiar totalmente en las respuestas generadas con IA y así asegurar la validez y el control de sus resultados. Además, la IA no debe comprometer la integridad de la investigación. Es vital mantener la reproducibilidad de los estudios y prevenir el plagio, mediante el reconocimiento y la correcta citación de los aportes de la IA.
Si tienes dudas sobre cómo citar y referenciar tus fuentes, solicita una capacitación en la biblioteca aquí (Ali & Shaikh, 2025; Bhardwaj et al, 2024).
Realizado por:
Mg. Jefferson Garcia Serna, Magíster en Gestión Social Empresarial.
Consideraciones éticas
En este texto se utilizó Copilot IA para mejorar la redacción del documento y para encontrar palabras claves relacionadas con el tema de consulta.
Lista de referencias
Ali, S. I. & Shaikh, M. S. (2025). The Ethical Dilemma of Using (Generative) AI to Science and Research. In L. Gaur (Ed.), Responsible Implementations of Generative AI for Multidisciplinary Use (pp. 249-264). IGI Global Scientific Publishing. https://doi.org/10.4018/979-8-3693-9173-0.ch009
Bhardwaj, S., Sharma, M., Dixit, J. K., Agrawal, V., Agarwal, S., & Saxena, A. (2024). Navigating the Ethical Landscape: AI's Impact on Academic Research and Integrity. In A. Srivastava & S. Agarwal (Eds.), Utilizing AI Tools in Academic Research Writing (pp. 204-215). IGI Global Scientific Publishing. https://doi.org/10.4018/979-8-3693-1798-3.ch013
Hersh, W. (2024). Search still matters: information retrieval in the era of generative AI. Journal of the American Medical Informatics Association, 31(9), 2159–2161. https://doi.org/10.1093/JAMIA/OCAE014
Lin, K. C., Chen, T. A., Lin, M. H., Chen, Y. C., & Chen, T. J. (2024). Integration and Assessment of ChatGPT in Medical Case Reporting: A Multifaceted Approach. European Journal of Investigation in Health, Psychology and Education, 14(4), 888–901. https://doi.org/10.3390/EJIHPE14040057
Este artículo fue revisado en redacción por: Andrea Ramos Buitrago