null

La velocidad de internet ya no depende de las conexiones

Tenemos mejores infraestructuras pero los sitios web se han hinchado tanto que éstas no son suficientes

Día 17/09/2010 - 21.47h
La conferencia Velocity, que trata sobre rendimiento y operaciones de Red, ha reunido este año en Santa Clara a algunos de los expertos más importantes para hablar sobre las innovaciones del próximo año.
La velocidad de internet ya no depende de las conexiones
Fotolia 
Tenemos la capacidad de enviar más contenido en el mismo tiempo pero lo hacemos de manera ineficiente

Los temas obvios de esta edición estuvieron relacionados con los móviles, pero la misión más importante de la conferencia fue promover una visión holística del panorama del rendimiento para poder pensar de forma que se tome en cuenta la complejidad relativa de un entorno operativo dado. Un entorno que, en estos momentos, está marcado por el “acceso total” desde un compendio de aparatos y plataformas, sean móviles o de otro tipo.

Tradicionalmente, el rendimiento ha sido relacionado exclusivamente con las redes, lo que ha llevado a una situación en la que pocos profesionales comprenden las diferentes capas en las que las aplicaciones y sitios web pueden –y necesitan urgentemente– mejorar su rendimiento.

Un paso adelante, dos pasos atrás

En los últimos diez años se ha producido una explosión de contenido en Internet: páginas, intranets y aplicaciones web han crecido de forma rápida e incontrolable. Y a pesar de que las redes son rápidas, los sitios están creciendo más rápido de lo que éstas pueden acelerar.

La velocidad de internet ya no depende de las conexiones
RWW 
Web de la Casa Blanca en 1996

Por ejemplo, la página del Gobierno de los Estados Unidos en 1996 era increíblemente simple, recuerda a la actual página de inicio de Google cuyos objetivos son, justamente, la simplicidad y la velocidad. Así era antes (izquierda).




La velocidad de internet ya no depende de las conexiones
RWW 
Web de la Casa Blanca en 2010

Hoy en día la página de la Casa Blanca tiene este aspecto (izquierda). En catorce años la página oficial del gobierno americano se ha enriquecido en todos los aspectos: tiene más información, más gráficos, más datos, etc. Los diseños de las páginas han avanzado notablemente, al mismo tiempo que han aumentado las expectativas de unos usuarios cada vez más exigentes.

El problema es que el sitio tarda el mismo tiempo en cargar en 2010 que en 1996.

En 1996 el promedio de velocidad de una conexión a internet era de 50Kbps. Hoy este promedio es de 3,9Mbps. Esto es, 74 veces más rápido. En teoría debería significar que Internet es 74 veces más rápido que hace 14 años.

La actual página Whitehouse.gov ha crecido de 22KB a 1.2MB (54 veces más grande). Con los efectos de latencia y distancia, el tiempo de carga de la página es el mismo en 2010 que en 1996.

En otras palabras: tenemos mejores infraestructuras pero los sitios web se han hinchado tanto que éstas no son suficientes. Tenemos la capacidad de enviar más contenido en el mismo tiempo pero lo hacemos de manera ineficiente. Los usuarios finales no han experimentado aceleraciones verdaderas en el tiempo de carga.

Las tecnologías fundamentales no han cambiado profundamente. HTML5 está siendo aceptado como estándar por la mayoría de los navegadores importantes, como Firefox 4 e Internet Explorer 9. Pero la naturaleza de cómo los navegadores procesan los archivos HTML, JPEG y otros componentes de una página web es básicamente la misma. La manera en la que el navegador se conecta con el servidor donde se aloja el contenido y cómo los descarga ha cambiado muy poco.

La importancia de la optimización es obvia. La página de inicio de Google se carga rápidamente desde cualquier lugar del mundo y la razón es simple, es prácticamente una página en blanco con un cuadro de texto.

Pero ¿cómo podemos hacer que sitios web complicados como el de la Casa Blanca carguen tan rápido como Google? Aquí es donde entra en juego la industria de la optimización. Al optimizar el rendimiento de los sitios, internet funciona más rápido que en 1996.

La optimización es el único camino que podemos seguir para hacer un mejor uso de las infraestructuras actuales. Independientemente de cuanta capacidad agreguemos a las redes, está claro que será insuficiente a medida que las páginas sean más y más grandes. La verdad es que el mercado de la optimización está explotando porque añadir más ‘caballos de fuerza’ al problema no lo solucionará jamás.

Mirar la escena completa

Mientras la industria se ha centrado en la innovación de las redes, Internet ha sufrido la sobrecarga de contenido que entorpece el rendimiento.

Pero el problema está en que muchos diseñadores Web, webmasters y gestores de IT siguen viendo la optimización como una función a nivel de infraestructuras. A pesar de que la variedad de herramientas de optimización disponible hoy en día es enorme, seguimos discutiendo sobre la velocidad de banda ancha y la optimización de las fibras y las redes, lo que tiene que ver sólo con un aspecto del rendimiento.

Hasta que se acepte la idea de que hay un problema fundamental en la forma de afrontar cómo subir contenidos y aplicaciones a Internet, seguiremos con páginas que se cargan con la misma velocidad que en 1996.

Este es un problema de conciencia sobre las diferentes capas en las que las mejoras de rendimiento pueden tener un gran impacto.

Consideramos tres categorías principales de optimización:

1. Optimización de redes
2. Optimización de páginas y aplicaciones web
3. Aceleración de páginas web.

Como he mencionado antes, nos centramos prácticamente al 100% en conversaciones relacionadas con el desempeño de la red. Esto es porque cuando una página tarda 25 segundos en cargar asumimos que nuestra conexión está fallando, que nuestro modem no funciona o que la compañía proveedora no es de fiar. En realidad es muy probable que el problema tenga que ver con el propio sitio (servidor, código, archivos, etc.) o con el CMS, que puede sufrir sus propios problemas de rendimiento.

Señor, por favor, apártese de la Red

Si finalmente se toma la decisión de enfrentar los retos del rendimiento, el primer paso es, precisamente, ‘dar un paso atrás’ para ver el ‘cuadro completo’. Hay que analizar qué se está subiendo a la Red y cómo se envía.

Al ver el panorama completo del proceso se pueden encontrar buenas oportunidades para mejorar el rendimiento, satisfacer a los usuarios e incluso generar mejores ingresos.

Lo más importante que podemos obtener de la conferencia Velocity de este año, es que debemos entender que muchos ingenieros y diseñadores brillantes no quieren construir sitios y aplicaciones que les recuerden a las de 1996.

Ed Robinson
Cuenta con 20 años de experiencia en la industria de la tecnología de la información y es co-fundador y CEO de Aptimize, una compañía que produce software para acelerar sitios web.

Búsquedas relacionadas
  • Compartir
  • mas
  • Imprimir
publicidad
Consulta toda la programación de TV programacion de TV La Guía TV

Comentarios:

Sigue ABC.es en...

Prueba los nuevos juegos web

Copyright © ABC Periódico Electrónico S.L.U.