‘BigData’ a la velocidad de la luz
La revolución económica que promete el análisis de grandes cantidades de datos se enfrenta al reto de que la infraestructura sea capaz de seguirle el ritmo. “El tener más datos no quiere decir que haya mejor información”
Tras pulsar una contraseña, pasar una tarjeta, tocar un lector de huellas dactilares y mirar por un escáner de retina se accede a una sala aislada en la que grandes ordenadores, de algo más de dos metros de altura, se alinean en los pasillos, entre el permanente zumbido del aire acondicionado. El BigData entra en juego. Jeff Brown, consejero delegado de Cobalt Data Centers, la empresa que alberga la sala, señala hacia varios tubos que salen de las máquinas y se meten en el falso techo. «Chimeneas. Permiten disipar el calor y gastar menos en refrigeración. Para nosotros es una novedad», afirma. Tras recorrer la instalación con la mirada, comenta orgulloso: «Aquí está la nube».
La nube, ese (aún impreciso) concepto de un megaordenador formado por millones de dispositivos interconectados y accesibles por cualquiera en todo el mundo, no está en este centro de datos, situado en un anodino polígono industrial a las afueras de Las Vegas (EE UU). No toda, al menos. Pero el mecanismo que piensa revolucionar la economía digital —lo que en el siglo XXI quiere decir prácticamente toda la economía— está situado en edificios como este, interconectados por vastas (y costosas) redes de fibra óptica de alta capacidad.
En 2013 había instalados en todo el mundo alrededor de 35 millones de servidores, cuyo coste de mantenimiento se acerca a los 250.000 millones de dólares (200.000 millones de euros). Se calcula que en 2013 se invirtieron 47.000 millones de dólares en crear estructuras —incluido software— de nube pública, inversiones que llegarán a 107.000 millones en 2017. «Este sector está al rojo vivo», apunta Brown. «Hacemos lo que podemos para seguir el ritmo de crecimiento. Terminamos nuestro centro de datos en enero de 2013 y ya estamos en plenas obras de ampliación».
l planeta cada vez produce más información, a través de más dispositivos, en más sitios y con más aplicaciones. Cada minuto se generan datos suficientes como para llenar el equivalente a 360.000 discos DVD, según la Unión Europea. Pero con un desafío adicional: la mayoría de esos nuevos datos se están generando en aparatos interconectados, por lo que la información que va a circular por las redes globales va a crecer a un ritmo aún más acelerado. IDC ha afirmado que si hoy menos de un 20% del contenido digital está relacionado en todo o en parte con la nube, en seis años esa cifra llegará a casi el 40%.
La recogida, almacenaje y análisis de ese océano de datos es solo una parte del llamado BigData, la base de la prometida revolución económica. «El verdadero objetivo es saber cómo puedo convertir esos datos desestructurados en información susceptible de aplicarle cerebro», apunta Alfonso del Gallo, director general de la consultora Experian Marketing Services en España. «Porque entonces podremos convertirla en conocimiento con el que poder tomar decisiones. Pero no todos los datos me van a servir; algunos son relevantes para saber algunas cosas y otros no».
Fuente: El País