La creciente cantidad de datos generados en la web es cada vez más evidente y preocupante. El procesamiento y análisis de dichos datos en forma manual resulta una tarea realmente ardua, más aún, si la tendencia es que la mayoría de esos datos sean semi-estructurados o no-estructurados. Por ello las herramientas para trabajar con grandes datos ofrecen una alternativa viable para tal propósito, pero un par de cuestiones a resolver y que poco se habla al hablar de Big Data son: primero el origen de los datos, cómo, cuándo y dónde realizar la búsqueda y extracción de estos, y segundo que hacer con los datos una vez procesados, es decir, de qué modo presentárselos al usuario final. Este proyecto se enfoca por un lado en el diseño e implementación de agentes inteligentes capaces de recuperar información de medios digitales, para luego ser procesados mediante técnicas de Procesamiento del Lenguaje Natural y Aprendizaje Automático que permitan entregar información relevante y relacionada a diferentes ámbitos del conocimiento. Y por otro lado, el segundo enfoque es el tratamiento de la información masiva tanto desde el punto de vista de la representación visual como del de la interacción, a través de interfaces visuales que permitirán sintetizar información y derivar insight de los mismos.