Los métodos de control de congestión utilizados por TCP se basan en modificar la tasa de envío en función de la carga de la red. Tradicionalmente la estimación se hacía sólo en base a las pérdidas de paquetes. Dos problemas conocidos de este mecanismo son la necesaria producci´on de pérdidas de paquetes para estimar la carga y la sincronización de flujos. En 1989 surge la idea de utilizar la demora ida y vuelta experimentada por los paquetes (RTT) para detectar la congestión anticipadamente. El emisor disminuye entonces su tasa de envío antes de que se produzca una pérdida, mejorando la eficiencia del protocolo y el throughput de la red (p. ej. TCP Vegas y FAST).
Si bien medir el RTT es sencillo, el valor obtenido no basta para una correcta estimación de la carga, ya que se debe tener en cuenta, entre otros factores, la asimetría en los caminos de ida y de vuelta. Por eso se ha intentado estimar la carga en la red de manera más precisa a partir de la demora emisor-receptor (OWD: one way delay). Sin embargo, medir esta demora no es inmediato, ya que los relojes del emisor y del receptor deben estar sincronizados, para lo que se recurre a servidores NTP o uso de GPS. Esto es adecuado para algunas aplicaciones (p.ej.VoIP), pero no para el caso de flujos TCP, ya que por su número y ubicación pueden generar un overhead considerable (NTP) o no tener capacidad de GPS.