Saltar al contenido
Electrónica Online

Latencia

latencia que es

Cuando compruebas la velocidad de Internet, lo más probable es que estés asegurándote de que obtienes la velocidad de descarga por la que pagas a tu proveedor de Internet. O quizá estés viendo si hay algún problema con la conexión. En cualquier caso, es importante prestar atención a la latencia de tu conexión. (O lag. O ping.)

¿Qué es la latencia? ¿Por qué es importante la latencia, especialmente en el contexto de los proveedores de Internet? Y lo más importante, ¿puedo mejorar la latencia? Analizaremos todas estas preguntas y muchas más en esta útil guía para entender la latencia de Internet.

¿Qué es latencia?

Latencia es sinónimo de retraso (delay). En telecomunicaciones, una latencia baja se asocia a una experiencia de usuario (UX) positiva, mientras que una latencia alta se asocia a una UX deficiente.

En redes informáticas, la latencia es una expresión del tiempo que tarda un paquete de datos en viajar de un punto designado a otro. Lo ideal es que la latencia sea lo más cercana posible a cero. La latencia de la red puede medirse determinando el tiempo de ida y vuelta (RTT) que tarda un paquete de datos en llegar a un destino y volver.

Una latencia de red elevada puede aumentar drásticamente los tiempos de carga de las páginas web, interrumpir los flujos de vídeo y audio e inutilizar una aplicación. Dependiendo de la aplicación, incluso un aumento relativamente pequeño de la latencia puede arruinar la experiencia del usuario.

Una de las principales razones de la mala latencia es la geografía. Las redes de Protocolo de Internet (IP) altamente distribuidas atraviesan grandes distancias, añadiendo un tiempo de transmisión que puede hacer descarrilar una aplicación. En cualquier situación en la que la latencia entre la detección y la respuesta deba ser extremadamente baja — por ejemplo, ciertas acciones en la conducción autónoma — tiene sentido colocar la computadora que procesa los datos lo más cerca posible de la fuente de datos, un concepto conocido como edge computing.

¿Cuánto debe ser la latencia en internet?

Bueno, todo depende de lo que hagas en Internet. Algunas actividades funcionan mejor y causan menos frustración con una latencia más baja (más rápida), mientras que para otras no supone ninguna diferencia.

En general, menos de 100 ms es una tasa de ping aceptable que no causa un retraso perceptible en la respuesta. Las páginas web se cargan casi de inmediato o el flujo de vídeo se inicia en un par de segundos. A partir de ahí, es posible que empieces a notar un retraso.

¿Una buena regla general? Si notas que tu nivel de frustración aumenta mientras trabajas online, lo más probable es que la latencia sea alta. O hay algún problema con tu conexión a Internet.

Ese umbral de 100 ms está bien para el uso cotidiano de Internet. Sin embargo, hay ocasiones en las que un tiempo de respuesta más rápido es beneficioso.

Causas de latencia en telecomunicaciones

La latencia puede deberse a muchas causas, entre ellas las siguientes:

  • Medios de transmisión. La latencia puede verse afectada por el tipo de medio utilizado para transmitir datos, voz y vídeo. Por ejemplo, cabe esperar que los paquetes que viajan por una línea T1 experimenten una latencia menor que los paquetes que viajan por un cable Cat5.
  • Tamaño del paquete. Un paquete grande tardará más en enviarse de ida y vuelta que uno pequeño.
  • Pérdida y fluctuación de paquetes. La latencia también puede deberse a un alto porcentaje de paquetes que no llegan a su destino o a una variación excesiva en el tiempo que tardan algunos paquetes en viajar de un sistema a otro.
  • Intensidad de señal. Si la señal es débil y tiene que ser reforzada por un repetidor, esto puede introducir latencia.
  • Retrasos en la propagación. Si cada nodo de puerta de enlace tiene que tomarse un tiempo para examinar y posiblemente cambiar el encabezado de un paquete — por ejemplo, cambiando el recuento de saltos en el campo de tiempo de vida (TTL) — la latencia será mayor.
  • Otros retrasos informáticos y de almacenamiento. Si un paquete está sujeto a retrasos de almacenamiento y acceso al disco duro en un dispositivo intermedio, como un conmutador, es probable que la latencia sea mayor.

Tipos de latencia

La latencia de interrupción es el tiempo que le toma a una computadora actuar ante una señal que le indica al sistema operativo (SO) anfitrión que se detenga hasta que pueda decidir qué debe hacer en respuesta a un evento.

La latencia de la fibra óptica es el tiempo que tarda la luz en recorrer una distancia determinada a través de un cable de fibra óptica. Por cada kilómetro (km) recorrido, se produce de forma natural una latencia de 3.33 microsegundos (μs), de acuerdo con la velocidad de la luz. En realidad, sin embargo, la latencia por kilómetro de los cables de fibra óptica es de unos 4.9 μs — esto se debe a que la luz viaja más despacio en un cable. Las curvas u otras imperfecciones del cable pueden hacer que la latencia sea mayor.

Los tiempos de latencia de Internet dependen de la distancia. Cuanto más tiempo tenga que viajar un paquete a través de una red de área extensa (WAN), mayor será la latencia.

La latencia de la WAN puede ser un factor importante a la hora de determinar la latencia de Internet. Una WAN que esté ocupada dirigiendo otro tráfico producirá un retraso (delay), tanto si el recurso se solicita a un servidor de la red de área local (LAN), a otro ordenador de esa red o a cualquier otro lugar de Internet.

La latencia de audio es el delay entre la creación del sonido y su audición. En el sonido creado en el mundo físico, este delay viene determinado por la velocidad del sonido, que varía ligeramente en función del medio por el que viaja la onda sonora. El sonido viaja más rápido en medios más densos: Viaja más rápido a través de los sólidos, menos rápido a través de los líquidos y más lento a través del aire. En audio, el rango medio aceptable de latencia es de unos 8 a 12 μs. Las latencias de 30 milisegundos (ms) suelen ser percibidas por el oyente.

La latencia operativa puede definirse como el tiempo sumado de las operaciones si se realizan en un flujo de trabajo lineal. En flujos de trabajo paralelos, la latencia está determinada por la operación más lenta realizada por un trabajador de una sola tarea.

La latencia mecánica es el delay desde la entrada en un sistema o dispositivo mecánico hasta la salida deseada. Este delay viene determinado por los límites del mecanismo basados en la física newtoniana (exceptuando la mecánica cuántica).

La latencia de la computadora y el sistema operativo es el retardo combinado entre una entrada o comando y la salida deseada. Los factores que contribuyen al aumento de la latencia de la computadora incluyen buffers de datos insuficientes y discrepancias en la velocidad de los datos entre el microprocesador y los dispositivos de entrada/salida (E/S).

Pruebas y mediciones de latencia

Las pruebas de latencia pueden variar de una aplicación a otra. En algunas aplicaciones, la medición de la latencia requiere equipos especiales y complejos o el conocimiento de comandos y programas informáticos especiales; en otros casos, la latencia puede medirse con un cronómetro. Para ello, los administradores de red disponen de varias herramientas, como Traceroute, My traceroute (MTR) y Ping.

Los comandos Ping se utilizan para determinar si una computadora host a la que el usuario intenta acceder está funcionando. Para evaluar la latencia, un administrador de red envía una solicitud de eco del Protocolo de Mensajes de Control de Internet (ICMP) a una interfaz específica de la red y espera una respuesta.

También se puede obtener información sobre la latencia utilizando un comando traceroute. Traceroute visualiza la ruta que toman los paquetes a través de una red IP, registrando la latencia entre cada host en la ruta. MTR combina elementos de Ping y Traceroute para rastrear tanto el delay entre dispositivos en la ruta como el tiempo total de tránsito.

Para evaluar la latencia mecánica, pueden utilizarse cámaras de alta velocidad para captar las diminutas diferencias en los tiempos de respuesta desde la entrada hasta la acción mecánica.

¿Cómo reducir la latencia?

La latencia puede reducirse ajustando y mejorando el hardware, el software y los sistemas mecánicos del ordenador. Dentro de un ordenador, la latencia puede eliminarse u ocultarse mediante técnicas como el prefetching — anticiparse a la necesidad de peticiones de entrada de datos — y el multithreading o uso del paralelismo entre múltiples hilos de ejecución.

Otras medidas para reducir la latencia y aumentar el rendimiento son:

  • Utilice un cable Ethernet: Siempre que sea posible, conecta el dispositivo al router con un cable Ethernet. De este modo obtendrá la conexión más rápida y fiable.
  • Controla la congestión de la red: Como ya hemos dicho, demasiadas conexiones activas en una red provocan congestión y retrasos. Limite las conexiones a tareas vitales cuando necesite una mejor latencia.
  • Utiliza ajustes de calidad de servicio (QoS): Puedes automatizar esto en tu red doméstica estableciendo ajustes de Calidad de Servicio (QoS) en tu router para dar prioridad a determinados tipos de tráfico de red (videoconferencia, juegos, etc.). Consulta las instrucciones en el manual de tu router.
  • Cierra las aplicaciones innecesarias: Aunque puede que no afecte a tu conexión a Internet, cerrar las aplicaciones y procesos innecesarios en segundo plano mejorará al menos el rendimiento de tu dispositivo.

Latencia vs throughput

Tanto el throughput como la latencia se utilizan habitualmente para medir el rendimiento de la red y mejorar los tiempos de carga.

La latencia se puede considerar como el tiempo que se tarda en realizar una acción, mientras que el throughput se puede considerar como el número de acciones que se pueden ejecutar en una unidad de tiempo. En otras palabras, la latencia mide lo rápido que tardan en transferirse los datos, mientras que el throughput es la cantidad de datos que pueden enviarse.

El ancho de banda es otro concepto que suele asociarse a la latencia. El ancho de banda describe la capacidad máxima de una conexión de red/internet. Cuanto menor sea el ancho de banda de una red, mayor será la latencia.

Para entender la relación entre ancho de banda y latencia, imagine el ancho de banda como una tubería y el throughput como la cantidad de agua que puede transportar una tubería en un tiempo determinado. La latencia es el tiempo que tarda el agua en llegar a su destino. Cuanto más pequeña sea la tubería, más tardará el agua en llegar a su destino. Con la misma noción, cuanto más grande es la tubería, más rápido puede llegar el agua a su destino. De este modo, el ancho de banda y la latencia tienen una relación causa-efecto.

Preguntas Frecuentes

¿Qué significa latencia?

La latencia se refiere al retraso que ocurre entre el momento en que un usuario realiza una acción en una red o aplicación web y el momento en que recibe una respuesta.

¿Qué es una buena latencia?

Una latencia buena y aceptable depende del usuario y de la aplicación, pero en términos generales, cualquier valor inferior a 150 milisegundos se considera bueno.

¿Es mejor la latencia alta o baja?

Una latencia más baja es generalmente mejor que una latencia más alta porque una latencia más alta significa que los usuarios no pueden obtener lo que necesitan tan pronto como lo desean.

¿Qué significa alta latencia?

Una latencia alta significa que pasa mucho tiempo entre el momento en que un usuario hace clic o toca algo y el momento en que obtiene lo que desea.

¿Te ha resultado útil esta información?

No
¡Gracias por tus comentarios!