En toda interfaz de Interacción Humano-Computadora (IHC), se requiere un mecanismo específico que permita conocer el lugar donde el usuario tiene centrada su atención. Ciertos enfoques de la IHC se apoyan en la Vision Computacional para obtener esta información a partir del análisis del rostro. En los últimos años, han surgido muchos trabajos relacionados, en los cuales se propone estimar el punto de atención en una escena a partir de la orientación del rostro (o head pose). En los mismos, se emplea mayoritariamente hardware de captura especifico (como cámaras infrarrojas, cámaras en stereo o camaras 3D), que suele ser muy costoso e inacccesible. Por otro lado, existen diferentes bibliotecas de análisis facial que, tal como se encuentran actualmente, no pueden ser utilizadas para la tarea perseguida. En este trabajo se presenta una versión inicial de un método de estimación de la head pose para IHC, basado en reconstrucción 3D y seguimiento de características faciales. Uno de los aportes presentados en este paper es la definición de un pipeline de procesamiento unificado que pueda funcionar en tiempo real. Adicionalmente, se incluye el estudio de factibilidad del uso cómalas web estándar, incluirías en las notebooks actuales. Para validar el esquema propuesto, se comparó la precisión de la estimación en dos implementaciones basadas en diferentes bibliotecas de análisis facial. Se realizo un estudio preliminar con 3 usuarios en diferentes escenarios.