Todos queremos que cuando buscamos una
página web aparezca en nuestro navegador lo más rápido posible.
La latencia en internet influye mucho en esto, por eso es importante conocerla
perfectamente así como saber mejorarla.
Índice de Contenidos:
-
¿Qué es la Latencia en Internet?
-
¿Qué Causa la Latencia?
-
Latencia, Ancho de Banda y Rendimiento
-
¿Cómo Reducir la Latencia?
-
¿Cómo Comprobar la Latencia?
-
¿Qué Latencia es Buena?
La latencia en internet en la práctica,
es el tiempo entre la acción de un
usuario y la respuesta de un sitio web o aplicación a esa acción.
Más concretamente es el retraso que hay entre un usuario que hace
clic en un enlace a una página web y lo que tarda en mostrarse la web en su navegador.
En general es
el tiempo que transcurre entre la acción del usuario y la respuesta
recibida.
El nivel de latencia ideal para una conexión a Internet sería de 0, pero las
distancias y los retrasos causados por los equipos de la infraestructura de
Internet hacen que esta latencia sea imposible, ya que los retrasos nunca
pueden eliminarse por completo.
Sin embargo,
pueden y deben minimizarse.
Por ejemplo, la latencia afecta directamente al SEO y al rendimiento de un sitio
web, ya que el usuario cuando hay una latencia muy grande, es más fácil que
abandone el sitio web o la aplicación y no vuelva.
Una de las principales razones de la latencia de la red es la distancia, en
particular
la distancia entre los dispositivos
cliente que realizan
solicitudes
y los servidores que responden a esas solicitudes.
Si el sitio web está alojado en un centro de datos en Madrid, responderá con bastante rapidez a las solicitudes de los usuarios
en Madrid y en pueblos y ciudades más cercanas, probablemente responderá en 10
o 15 milisegundos.
Pero los usuarios en Los Ángeles experimentarán latencias más largas, que
podrían ser de 50 o más milisegundos.
Un aumento de unos pocos milisegundos puede no parecer mucho, pero esto se
ve agravado por todos
los tiempos que el cliente y el servidor necesitan
para establecer una conexión,
el tamaño general y el tiempo de carga de la
página, y cualquier problema con
el hardware de red o
internet por el que pasan los datos durante su camino.
El tiempo que un paquete de datos tarda en volver a su emisor habiendo
pasado por su destino se denomina
tiempo de ida y vuelta o RTT
del inglés round-trip time o round-trip delay time.
Los datos que pasan a través de Internet, por regla general, deben atravesar
no una, sino varias redes diferentes.
Cuantas más redes tenga que atravesar, más latencia.
Por ejemplo, cuando los
paquetes de datos cruzan las
redes, pasan a través de los llamados puntos de
intercambio de Internet (IXP).
Estos puntos son puntos donde los proveedores de internet intercambia e
tráfico de datos que viajan por la red (internet) entre sus redes.
Allí, los routers tienen que procesar y
enrutar paquetes de datos y, a veces, es posible que
necesiten dividirlos en paquetes más pequeños, todos los cuales agregan
algunos milisegundos al RTT.
Otro elemento que puede incrementar la latencia son
los medios de transmisión.
Cada medio de transmisión, como cables coaxiales o de fibra
óptica, tiene diferentes velocidades y límites, lo que puede afectar la
latencia de Internet
debido a la resistencia y otros factores.
Además, la forma en que se crean las páginas web puede aumentar la latencia.
Las páginas web que contienen una gran cantidad de contenido pesado
o que descargan contenido de terceros pueden funcionar con
lentitud, o lo que es lo mismo tener
mucha latencia, porque los navegadores tienen que descargar archivos grandes para
mostrarlos.
El usuario puede estar cerca del
servidor que aloja el
sitio web al que está accediendo, pero si el sitio web contiene varias
imágenes de alta definición (por ejemplo), es posible que persista cierto
retraso mientras se cargan las imágenes.
Veamos la diferencia entre estos 3 conceptos que muchas veces la mayoría de la gente los confunde.
La latencia, el rendimiento y el ancho de banda están interrelacionados pero
miden cosas diferentes.
El
ancho de banda es la cantidad máxima de
datos que pueden pasar a través de la red en un momento dado.
El
rendimiento es la cantidad promedio de
datos que realmente pasan a través de un período de tiempo determinado.
La latencia es una medida
de tiempo, no de la cantidad de datos cargados a lo largo del tiempo.
El ancho de es siempre el mismo independientemente de la
latencia.
El rendimiento no es necesariamente equivalente al ancho
de banda, ya que
se ve afectado por la latencia.
La latencia es una parte inevitable de los ecosistemas en red, por lo que
podemos minimizarla en lugar de eliminarla por completo.
El uso de una CDN (Content Delivery Network) es un paso importante para
reducir la latencia.
Un CDN (Content Delivery Network) es un
grupo de servidores
instalados en diferentes ubicaciones para brindar contenido web en
un área geográfica mucho más amplia.
En lugar de estar el contenido alojado en un solo servidor, se aloja en
varios servidores, lo que reduce significativamente los tiempos RTT, ya que
probablemente el servidor te sirva la página web desde un sitio más cercano
a donde está el ordenador que lo pida.
Los servidores CDN se distribuyen en
varias ubicaciones, por lo que el contenido se almacena más cerca de los
usuarios finales y no tiene que viajar tan lejos para llegar a ellos.
Esto
significa que la página web tardará menos en cargarse, lo que mejorará la
velocidad y el rendimiento del sitio web, lo que hace que baje la latencia.
Los desarrolladores web también pueden minimizar la cantidad de recursos de
bloqueo de renderizado (como la carga de JavaScript), optimizar las imágenes
para una carga más rápida y reducir el tamaño de los archivos cuando sea
posible.
La
minificación de código es una forma de reducir el tamaño de los
archivos
JavaScript y
CSS.
Se puede configurar una página web para que cargue la parte superior primero
para que los usuarios puedan comenzar a interactuar con la página antes de
que termine su carga completa.
Las páginas web también pueden
cargar recursos según sea necesario, utilizando una técnica conocida como
carga diferida.
Estos enfoques en realidad no mejoran la latencia de la red,
pero sí mejoran la experiencia del usuario con la velocidad de la página.
Otra técnica útil para reducir la latencia web es
el almacenamiento
en caché en los navegadores, porque los
navegadores almacenan en caché ciertos recursos de cualquier sitio web
localmente para mejorar las tasas de latencia y reducir la cantidad de
solicitudes de los usuarios al servidor.
También es útil para reducir la latencia
utilizar el protocolo
http/2 en lugar el http.
HTTP/2 es la nueva versión del protocolo de internet HTTP.
Tanto el servidor como el navegador del usuario debe estar preparado para
esta versión nueva del protocolo http, en caso contrario no servirá de nada.
Una vez que la página esté alojada en un servidor compatible con HTTP/2, la
decisión de continuar optimizando para HTTP/1.1 o para HTTP/2 dependerá del
protocolo que utilice el navegador del usuario.
A veces, la latencia de la red se debe a problemas
del lado del usuario y no
del lado del servidor.
Los consumidores siempre tienen la opción de comprar
más ancho de banda si la latencia es una preocupación constante, aunque el
ancho de banda no es una garantía para mejorar la latencia.
Una de las mejores opciones es
conectarse a través de un cable de
red Ethernet al router, si es posible.
De esta forma reduciremos los picos de latencia.
Cambiar
a cable en lugar de WiFi dará como resultado una conexión a Internet más
consistente y, en general, mejorará la velocidad de Internet.
En cuanto al router, podríamos
intentar cambiar el canal de Wi-Fi.
Además, si estamos lejos del router, es mejor
usar la banda de 2,4
GHz, que ofrece la mejor estabilidad a largas distancias.
Si la señal de Wi-Fi no funciona bien en algunas áreas, podríamos considerar
comprar un punto de acceso intermedio o
amplificador wifi.
Los usuarios
también deben asegurarse de que su equipo de Internet esté actualizado
aplicando actualizaciones de firmware con regularidad y reemplazando todo el
equipo según sea necesario.
Finalmente, estos altos picos de latencia pueden deberse a que nuestro
router está muy desactualizado o que parte del Wi-Fi comienza a fallar.
En este caso, reemplazar el router.
Podemos
usar un ping típico para medir la latencia, medida en milisegundos y abreviada en ms.
Si es un usuario de Windows, abra el Menú Inicio y escriba "cmd" y abra la
pantalla de símbolo del sistema.
Se abrirá una pantalla negra, luego escriba "ping", ingrese la
dirección IP o URL de cualquier sitio web en Internet y presione enter.
Podríamos usar Google con IP 8.8.8.8.
Escribe ping 8.8.8.8
Su ordenador mide el tiempo mínimo, máximo y promedio que se tarda en enviar
y recibir una parte de los datos a esa dirección web específica, en
milisegundos (ms).
A continuación puedes ver que resultados son buenos o malos.
De
50 a 100 ms es la latencia ideal en Internet.
Se recomienda que haya un ping de menos de 50 milisegundos, un buen ping
estaría entre 20 y 50, y si podemos ir por debajo de los 20ms sería una
situación ideal.
En cambio, de 70 a 80ms, ya estamos en el límite, y cuando se supere los
100ms, tendremos problemas más graves.
También es importante fijarse
en la velocidad mínima y máxima.
Si notas una gran diferencia entre la
velocidad mínima y la máxima, entonces tu conexión es inestable y los datos
pueden perderse por completo cuando intentes enviarlos o recibirlos.
Para asegurarte de que tu conexión a Internet sea estable, debes ejecutar la
prueba varias veces.
¿Te ha gustado la web
Latencia en Internet? Pulsa en Compartir. Gracias
© Se permite la total o parcial reproducción del contenido, siempre y cuando se reconozca y se enlace a este artículo como la fuente de información utilizada.