El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1.el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2.la disponibilidad de cantidades masivas de datos y la viabilidadde almacenarlos y analizarlos de manera eficiente3.La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible.Elframework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidaddel framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela.