El Scaled Conjugate Gradient es un algoritmo de aprendizaje iterativo para redes neuronales artificiales, destacándose por su velocidad de convergencia frente al Backpropagation. Esto se debe a que utiliza derivadas de segundo orden, lo que permite una convergencia más veloz. En este artículo, se demuestra lo expuesto por Möller en su trabajo original, respecto a que una adecuada implementación del Scaled Conjugate Gradient puede reducir en un 50% el tiempo de ejecución. La implementación fue realizada en la herramienta gratuita "Froog Neural Networks" de redes neuronales y probada en 4 base de datos estándar, con diferentes cantidades de neuronas para probar la efectividad de los cambios realizados.