Se presentan los resultados preliminares del desarrollo de un framework de interacción emocional Humano-Robot que contribuye con la configuración de estados emocionales, del tipo de robot (físicos o virtual) y sus acciones asociadas en respuesta al estado emocional. Para este proyecto, se trabajó en la integración de distintos sistemas entre ellos se destaca el software Emotion Detection Asset, que se encargará de reconocer emociones a través de expresiones faciales, capturadas por medio de una webcam o de una imagen importada desde un archivo; interfase de usuario por cuál se puede realizar diferentes configuraciones; robots físicos (Roboreptile) y/o virtuales, para la representación o ejecución de acciones en respuesta a las emociones capturadas del humano, finalmente se realizan pruebas con software de reconocimiento de emociones propietario. En la primera sección “introducción” se presentan las características generales del área de computación afectiva, enfoque categórico de emociones, modelos multimodales y unimodales, emociones, finalmente se presenta una síntesis comparativa de los trabajos específicos de emociones y robots. En la segunda sección se presenta sintéticamente el problema, en la tercera sección se plantea la solución desarrollada, en la cuarta sección se presentan las pruebas preliminares, finalmente en la quinta sección se enuncian las conclusiones y futuras líneas de trabajo.