A través de los años con el avance de la tecnología y el crecimiento de Internet, el hombre ha deseado obtener una mayor capacidad de almacenamiento para sus datos y un mayor poder de procesamiento, que permita mejorar los tiempos de respuestas de sus tareas. Debido a ésto, numerosos estudios se han abocado al desarrollo de nuevos modelos que permitan satisfacer dichas demandas, a través de la computación paralela, que ha demostrado ser un paradigma que permite mejorar los tiempos de ejecución de los algoritmos.
En trabajos anteriores se han analizado y desarrollado algoritmos paralelos, para estructuras de datos que acceden eficientemente a base de datos textuales distribuidas. Estos algoritmos, denominados Listas Invertidas Locales y Listas Invertidas Globales, fueron diseñados e implementados siguiendo una metodología de diseño y de análisis bien estructurada, a través del modelo de computación BSP [2, 4]. Actualmente se están estudiando diferentes alternativas, denominadas estrategias de buckets, que permiten reducir los costos asociados a los algoritmos de búsqueda en la Web, y también la relación existente entre la máquina de búsqueda y los m´odulos correspondientes al indexador y el crawler.