
En 1859 se produjo la mayor tormenta solar de la que se tienen registros. Se observaron auroras boreales en lugares tan insólitos como Madrid, la Habana o Colombia y fallaron las líneas de telégrafo en toda Europa y América del Norte. Si esta tormenta hubiera ocurrido hoy sus consecuencias habrían sido catastróficas.
La tormenta solar de marzo de 1989, mucho menos intensa que la de 1859, provocó el colapso de la red eléctrica de Quebec y dejó sin suministro eléctrico a 6 millones de personas durante 9 horas. La que ocurrió en 1994 dañó dos satélites de comunicaciones, afectando a las radios, televisiones y periódicos de Canadá. Y no se trata de fenómenos esporádicos: las perturbaciones en los servicios de telefonía móvil, las señales de televisión, los sistemas GPS y las redes eléctricas, debidas a la interacción de la radiación solar con el campo magnético de la Tierra, son algo habitual.
La eyección de plasma solar, que viaja por el espacio y llega hasta nuestro planeta, es un fenómeno recurrente, cuyo alcance puede ser mínimo o descomunal, dependiendo de lo grande que sea esta eyección, del lugar en el que se haya producido y, sobre todo, de la orientación del campo magnético que se propaga con él. Si dicho campo está orientado al norte, la mayor parte del viento solar será desviado por la magnetosfera terrestre; pero si está orientado al sur puede penetrar en la atmósfera e inducir corrientes eléctricas capaces de dañar los transformadores, quemar los componentes eléctricos, interrumpir las telecomunicaciones y, por supuesto, paralizar los servicios de Internet.
Cuando se diseñó, Internet se concibió sin jerarquía, de forma que fuera capaz de seguir operando aunque una de sus partes quedara inutilizada, y existe la creencia generalizada de que esta estructura es sumamente estable, capaz de resistir las mayores catástrofes. Sin embargo, Internet es mucho más frágil de lo que parece. Y sus debilidades no son exclusivamente físicas. La Red no solo está expuesta a las amenazas naturales.
Internet se describe como una malla, en la que si un nudo falla el tráfico de datos se puede desviar por otros. Pero esto no es exactamente así, sino que algunos nudos son notoriamente más importantes que los demás. Si la red se rompe por uno de ellos el impacto puede ser considerable. Es más, cada vez que un nodo deja de funcionar (por ejemplo, debido a una avería eléctrica o a un ataque informático) el tráfico se desvía a los nodos cercanos, sobrecargándolos de trabajo, lo que puede provocar un colapso en cadena.
Esto es lo que sucede con los llamados ataques de denegación de servicio (DDoS), que consisten en inundar de peticiones de visitas a un sitio de la web hasta conseguir que el sistema se sature, comience a funcionar lento y, finalmente, se colapse. Ya se han producido muchos ataques de este tipo, para paralizar los sitios web de organizaciones gubernamentales, empresas o instituciones; el mayor de todos ellos fue el que tuvo lugar en octubre de 2016 contra Dyn, un proveedor de nombres de dominio, que dejó sin servicio a millones de usuarios en toda Europa y Norteamérica. Para llevarlo a cabo se utilizaron simultáneamente millones de dispositivos de todo tipo (cámaras, impresoras, routers…) conectados a la red, previamente infectados y controlados por un grupo de hackers.
Se estima que para el año 2020 habrá 50.000 millones de aparatos conectados a Internet, formando el llamado Internet de las cosas; millones de artefactos dependientes de la Nube, a la que nutren y desde la que se nutren: relojes, frigoríficos, sistemas domóticos, cafeteras… cachivaches de uso cotidiano que almacenan y envían información sobre los hábitos de los usuarios, que se podrán adquirir en cualquier sitio y que habrán pasado o no los correspondientes controles de seguridad. Y esto añade nuevas vulnerabilidades; porque no se pone el mismo cuidado en la seguridad de una cafetera que en la del ordenador con el que trabajamos, pero tanto una como la otra abren la puerta de alguna red.
No se sabe con claridad cuáles son las motivaciones para los ataques cibernéticos masivos, ni se sabe con certeza cuáles son sus autores. Algunos persiguen un beneficio económico, otros intentan dañar o combatir a una organización, en otros simplemente se intenta demostrar la pericia técnica de los que lo ejecutan. Hay quienes dicen que se trata de ensayos para desencadenar una ciberguerra a gran escala; incluso hay evidencias, como el duelo cibernético entre Irán e Israel, o entre Estados Unidos y Corea del Norte, de que esta contienda ya se está llevando a cabo. Y estos ataques, fuera de control, pueden tumbar Internet durante horas o días.
Por citar un ejemplo reciente, sobre el conocido ataque WannaCry que, el 12 de mayo de 2017, secuestró los datos de cientos de empresas en 179 países, hay numerosos aspectos sin aclarar. Entre ellos la identidad y el objetivo de los agresores, que supuestamente es un grupo de ciberdelincuentes que pedía un rescate en bitcoins, pero que bien pudiera tratarse de un colectivo antisistema o de funcionarios de un gobierno llevando a cabo algún tipo de ensayo. En cualquier caso, el ataque no se habría producido si la Agencia Nacional de Seguridad de los Estados Unidos no hubiera desarrollado una herramienta de espionaje, para aprovechar una vulnerabilidad de Windows, y si esta herramienta no hubiera sido robada por un grupo de hackers y modificada por los atacantes para propagarse por la red e infectar los equipos.
Pero, incluso obviando las posibles catástrofes naturales y las contiendas cibernéticas que quedan por venir, hay otras características de Internet que pueden llegar a destruirlo. Entre ellas las relacionadas con su estructura, tanto física como lógica.
El software sobre el que se sustenta Internet es muy antiguo. Los protocolos llevan más de 20 años funcionando, pero tienen que soportar las demandas actuales. Los servicios como YouTube, Netflix, Skype, Twitter o Facebook les someten a una presión cada vez mayor. Y esta situación es difícil de cambiar; en Internet están conectados todo tipo de dispositivos y los más antiguos, los menos actualizados, están reteniendo a los demás.
Lo que llamamos la Nube no es algo etéreo, sino que es un complejo entramado de ordenadores y miles de kilómetros de cable y fibra óptica. Y los cables tienen una capacidad finita, los datos que circulan por ellos tienen un límite. La transmisión de información, además, consume energía. Algunos expertos estiman que Internet consume alrededor del 10% de la electricidad producida en todo el planeta y que este consumo se duplica cada cuatro años, de forma que, en un futuro próximo, el uso de Internet requerirá casi toda la energía disponible. Otros expertos afirman que las redes de fibra óptica alcanzarán su máxima capacidad en el año 2023; se llegará al límite de datos que los cables pueden transmitir. Sea o no sea así, lo que está claro es que la demanda crece exponencialmente y, para atenderla, es necesario aumentar el número de cables y el consumo energético. Si la demanda supera a lo que la Red es capaz de soportar, la única solución es restringir el acceso, racionando el consumo asignado a cada conexión o aumentando las tarifas.
Los principios sobre los que se fundó Internet (descentralización, neutralidad, libre acceso…) se están erosionando. En la práctica, unas pocas compañías controlan el flujo de datos y el servicio se está concentrando en unos pocos proveedores. Hay dos corporaciones, Apple y Google, que acaparan casi la totalidad de los sistemas operativos de los teléfonos móviles del planeta. Si la descentralización está desapareciendo, Internet ya no es neutral sino partidista.
Por decirlo de alguna manera, Internet está enfermo. Para aquellos que no pueden pagarlo, cada vez es más lento y está más saturado. La falta de seguridad es generalizada pero la dependencia que tenemos de él es cada vez mayor. Si se detuviera totalmente la Red, aunque solo fuera por un día, los transportes, el comercio, las transacciones bancarias, la extracción y distribución de energía, la salud, el suministro de agua y hasta nuestra propia identidad se verían profundamente alterados. En situación crítica.
Nunca dispuso la humanidad de una tecnología que la hiciera tan fuerte y, al mismo tiempo, tan frágil.
La dinámica solar, la sobresaturación y el exceso de demanda, la ciberdelincuencia, la competencia entre estados y entre coorporaciones… cada una de ellas por separado o coincidente con otras, puede hacer que “pete” Internet en cualquier momento. Y petará. La cuestión es hasta qué punto somos conscientes de ello y si estamos buscando soluciones, no parches. Porque, de momento, no tenemos un plan alternativo.
A mi también me sobrecoge de cuando en cuando la sensación de que partes esenciales de nuestro funcionamiento penden de un hilo, pues son frágiles y se apoyan en aspectos que damos por hechos permanentemente.
Y cada vez tengo más claro que esta seguridad de la que tanto hacemos gala, es a veces solo un espejismo.
Gracias por el artículo
Al margen del artículo que muy claro y descrito está, estaría bien que nos dijeran si esto de los ordenadores, móviles y demás… No van a dejar en la ceguera al menos a la mitad de la población mundial hacia el 2050..
Decirnos apenas nos dicen.. Hablan ya de que aumenta la Miopía en general..
Pero cómo en todo: primero es la venta.. Y después medimos los «riesgos»..
Y.. Los riesgos somos tod@s cómo siempre..
Y aunque sé que estoy fuera de tema, esto también tiene que ver con Internet, que una vez navegas el tiempo no ‘existe’.