Los modelos de lenguaje a gran escala (LLM), han demostrado un rendimiento sobresaliente en una variedad de tareas de procesamiento de lenguaje natural (PLN), incluyendo generación de texto, traducción automática y respuesta a preguntas.
Sin embargo, estos modelos enfrentan desafíos significativos en términos de eficiencia computacional y manejo de información externa. La arquitectura RAG (Sistema de Recuperación Aumentada) emerge como una solución con gran potencial para abordar estas limitaciones.
Este proyecto de investigación se enfoca en mejorar la eficiencia y precisión de la recuperación de información basada en texto mediante el uso de RAG, los cuales combinan técnicas de recuperación de información vectoriales con modelos de lenguaje avanzados para mejorar la relevancia de los resultados de búsqueda. El objetivo es explorar diferentes enfoques y técnicas dentro de los RAG para abrir nuevas oportunidades en la búsqueda semántica y el descubrimiento de conocimiento.
Al integrar estos sistemas en investigaciones particulares, se espera poder interactuar con grandes modelos de lenguajes (LLM) enviando un contexto para acotar su ámbito de conocimiento para la IA generativa.