Pages

Ads 468x60px

26 diciembre 2014

El día que “se rompió” Internet


El martes 12 de agosto de 2014 varios de los sitios web más importantes de todo el mundo estuvieron no disponibles o se ralentizaron tanto que se hacía prácticamente imposible usarlos. La causa de este “apagón” no fue un ataque de hackers sino las actividades de mantenimiento ordinarias de una operadora estadounidense: Verizon.

El origen del problema de Verizon comenzó en algo que se llama Border Gateway Protocol o BGP.
Todos los proveedores de acceso a Internet (Verizon entre ellos) tienen routers, elementos de red cuya función es encontrar un camino para hacer llegar la información de un punto de Internet a otro. Pero Internet es una maraña de incontables millones de rutas posibles, por lo que para ir encontrando el camino para los datos, los routers tienen un registro donde se van almacenando las rutas más fiables. Este registro es, en esencia, una gran lista donde se guardan las rutas junto con el grupo de direcciones IP a las que dan acceso. Esto es lo que se denomina “tabla de enrutado BGP” y esta es la forma en la que es posible enviar información de un punto de Internet a otro, a través de las redes de diferentes proveedores.

Otro de los ingredientes del problema tiene que ver con decisiones tomadas hace ya muchos años en relación al número de direcciones IP. En su momento, cuando nadie sabía la magnitud que tomaría Internet, se estableció que el número de direcciones IP fuera de 2 elevado a 32, es decir, de unos 4.200 millones. En la actualidad, hay más de 4.000 millones de dispositivos que requieren acceso a la red, por lo que la escasez de direcciones es un problema. Además, en los primeros tiempos de Internet se otorgaron grandes bloques de direcciones IP a diferentes instituciones, direcciones que luego no han sido utilizadas, por lo que ahora, que se están agotando, los reguladores están dividiendo esos bloques de manera que puedan ser utilizadas. Y esto es lo que hizo Verizon con su colección de bloques IP: subdividirlo en grupos más pequeños, creando unos 15.000 nuevos grupos de direcciones. Esto supuso que los routers necesitaron incluir en sus tablas BGP muchas más rutas, de manera que los equipos pudieran hacer su trabajo de encaminamiento. Ese día, la mayoría de los routers tenían casi 500.000 de sus entradas llenas, así, que cuando llegaron 15.000 nuevas rutas de Verizon los viejos routers no pudieron gestionarlo y el resultado fue que no pudieron encaminar el tráfico debidamente.

La escala de los problemas causados por una tarea administrativa rutinaria realizada por un operador pone de manifiesto el hecho que de Internet no fue producto de un plan, sino que creció a partir de un conjunto de soluciones ad hoc. Desde su nacimiento, Internet ha tenido un crecimiento orgánico. Y cuando surgen los problemas los ingenieros tienen que encontrar maneras de parchearlos y solventarlos. Pero en ocasiones esos ajustes se convierten en problemas en sí mismos años después.

Pero… ¿por qué es la Internet actual tan difícil de ajustar?

Internet es esencialmente un espacio único de interconexión gigantesco ya que todos los dispositivos con una dirección IP pública son parte de este espacio.Funciona con tecnología antigua que además es muy difícil de actualizar ya que Internet es demasiado grande y hay demasiadas personas implicadas en realizar los cambios para llevar a cabo esa actualización. Como consecuencia de todo ello, las limitaciones que impone la tecnología antigua no se pueden ajustar y se requieren más y más parches para hacer frente a los problemas causados por dichas limitaciones. Todo esto hace que Internet sea cada vez más compleja y por eso mismo más frágil.

Al estar todo en el mismo espacio, la escalabilidad sólo se puede lograr por la fuerza bruta: más memoria en los routers y CPUs más rápidas para hacer frente al tamaño de las tablas de enrutamiento. Aunque el problema del agotamiento de las direcciones IP se debería resolver con el nuevo protocolo IPv6, dado que este sigue usando un único espacio de direccionamiento, se sigue sin resolver el problema de tamaño de tablas de enrutamiento. De hecho, lo hace peor a largo plazo, ya que los routers tendrán que almacenar más entradas en la tabla de enrutado y cada entrada consumirá más memoria ya que las direcciones IPv6 son también más largas.

Tener un espacio único de direccionamiento también tiene el problema de no permitir el aislamiento entre las diferentes redes de Internet. Todo el mundo opera en ese espacio y eso ha producido algunos problemas. En 2008, por ejemplo, YouTube estuvo un tiempo no accesible a nivel mundial después de que un proveedor de servicios de Internet de Pakistán alterara una ruta en el intento de bloquear el acceso a YouTube en ese país. En 2013, Renesys informó de que algunas conexiones entre Denver y Denver (en EE.UU.) se enviaban a través de Islandia, lo que claramente no era muy eficiente. Y precisamente es esa falta de aislamiento la que puede llevar a errores y fallos as escala global.

¿En qué consiste RINA?

RINA (Recursive InterNetwork Architecture) es una arquitectura de red que trata de aplicar los principios generales de interconexión de procesos a las redes. Como tal, no trata de arreglar Internet con una capa más de parches sino que cambia su diseño de manera que esto permita superar las limitaciones actuales, haciendo que las conexiones entre redes sean más fiables, predecibles y baratas.

RINA se basa en el principio de que la asignación de direcciones y otros aspectos de las operaciones de red deben ser automatizados para minimizar los errores humanos y permitir un mayor grado de verificación y validación. Se trata de abordar la causa fundamental de los problemas, en vez de inventar otros caminos complejos para intentar evitar sus consecuencias.

Con RINA, no hay un espacio único y global de direcciones, hay un espacio de direccionamiento por capa – DIF en la jerga de RINA-. Así, una mala configuración administrativa se trata como un apagón de una capa o DIF, de manera que si se estropea definitivamente el enrutamiento en una capa, entonces, las capas de encima encontrarían una ruta alternativa tan rápido como lo permita la señalización.

La estructura propuesta por RINA escala de manera indefinida, lo que evita los problemas del crecimiento de las tablas de enrutado y ofrece soporte a la movilidad y el “multi-homing” de manera sencilla y prácticamente sin costes.

Además, el hecho de tener múltiples capas hace que no sea necesario “parar Internet” o tener un “flag day” para adoptar RINA cuando la tecnología esté lo suficientemente madura. La Internet actual se vería así como otra capa y por lo tanto RINA se desplegaría sin tener que cambiar nada en la actual Internet.

No hay comentarios:

 
 
Blogger Templates