publicidad
  19/01/2015

Markus Weldon

CTO de Alcatel Lucent y Presidente de los Bell Labs

En febrero del año pasado, el CEO de Alcatel Lucent, Michel Combes, declaraba a este blog que la tecnología NFV (Network Functions Virtualization) será un hito fundamental en las relaciones entre operadores e industria. En noviembre, al inaugurar un seminario de prensa en los históricos Bell Laboratories (Nueva Jersey), Combes fue más preciso al respecto: la compañía tenía a esa fecha 65 proyectos de NFV en todo el mundo. Entre ambas fechas, AlcaLu anunció contratos de virtualización con operadores, entre otros con Telefónica y con China Mobile. A continuación se transcribe una conversación mantenida con Markus Weldon, CTO de la compañía y presidente de los Bell Labs.

Markus Weldon

Markus Weldon

Llegó a los Bell Laboratories para hacer su investigación de postdoc e hizo su carrera primero en Lucent, luego en Alcatel Lucent. Como cerebro tecnológico de una compañía que ha recuperado relevancia, el británico Markus Weldon es responsable en buena medida de la estrategia para los próximos años. Aunque la entrevista tuvo otros capítulos, ha sido editada para centrarla en NFV, pieza clave de esa estrategia. En sus palabras, cada operador de telecomunicaciones tiene prioridades diferentes y adoptará la virtualización a su manera. “La intensificación de nuestras inversiones en aplicaciones virtualizadas, la plataforma CloudBand 2.0 y la empresa filial Nuage Networks – dedicada a soluciones SDN – demuestran que tenemos todos los elementos que se necesitan para crear entornos cloud abiertos, ágiles y eficaces”, resumió. Que conste que fue una conversación intensa, y que el entrevistador estuvo didáctico y bienhumorado.

publicidad
     

Primero, ¿por qué Alcatel Lucent, con una historia como proveedor de hardware para redes, ha hecho de la virtualización de redes su nuevo caballo de batalla?

En primer lugar, es nuestro caballo de batalla sólo donde la virtualización tiene sentido. Porque en ciertos casos puede no tenerlo. Hay poderosas razones para que los operadores transformen sus redes provisionadas estáticamente en un recurso que sea escalable dinámicamente y que pueda ser programable para aplicaciones diferentes; una de esas razones es la posibilidad de construir redes personalizables, capaces de reconocer la especificidad de los usuarios. Por decirlo simplemente, se trata de crear instancias virtuales para cada usuario, en lugar de obligar a todos los usuarios a interactuar con una red monolítica, como ha ocurrido históricamente y sigue ocurriendo hoy.

¿Quiere decir que el usuario va a interactuar con una red que ha sido optimizada para identificar qué aplicaciones demanda?

Correcto. Y quiere decir que tenemos que ser capaces de crear instancias virtuales que puedan manejarse como si fueran redes para cada individuo. Aceptando que estarán constreñidas por el acceso, que a fin de cuentas se produce sobre un medio físico. El problema al que nos enfrentamos consiste en mover los bordes del acceso para crear una escala elástica; es un cambio radical en la arquitectura de las redes tal como las conocemos. No importa si hablamos de WiFi, de 3G, LTE o en el futuro de 5G, tampoco importa si es fija o móvil, porque la experiencia tiene que ser la misma. Espero haber sido conciso.

Más conciso, imposible.

No se entusiasme, sólo ha sido un preámbulo [risas]. Para virtualizar una red, particularmente si implica procesar muchos paquetes, nos enfrentamos a requerimientos de performance muy exigentes, porque el mensaje tiene que ir y venir por la red […]. En una RAN virtual, la comunicación entre un móvil y la red sólo puede emplear cuatro milisegundos sumando ambos sentidos, en el estándar actual de LTE que, ha sido pensado para eso.

¿Por qué?

En parte, porque el usuario se está moviendo, y hay que evitar que la respuesta le llegue cuando ya se ha vuelto a mover, y entonces la terminación habrá sido errónea. Los cuatro milisegundos no son un capricho: al virtualizar la red hay que optimizarla para que cumpla dos condiciones: una muy baja latencia y una performance predecible. No es el caso en una típica aplicación web, que consiste en manejar paquetes de manera asíncrona: transmito un bit que será respondido en cierto período de tiempo; en las comunicaciones móviles no es aceptable.

¿Con qué consecuencias?

Mire esa tableta suya… no tiene cables ni puerto Ethernet. Puesto que un dispositivo tan popular es inalámbrico, los operadores tienen absoluta necesidad de dotar sus redes de capacidad, no sólo de cobertura, y como el almacenamiento de esa tableta suya es limitado, probablemente usted tendrá que recurrir a la nube, y para esto tirará de la capacidad de la red. Es un elemento clave para entender el por qué de la virtualización.

¿Qué impacto tiene la virtualización sobre el capex del operador?

Que invertirá más dinero con nosotros [risas]. Ya quisiéramos, pero no es esa mi respuesta. Déjeme explicar qué pasa con lo que no se virtualiza, porque esto también determina el tamaño del mercado. Lo que no se virtualiza, ni se virtualizará, es todo aquello que tiene una capa física terminada en una pieza de cobre o de fibra. […] Otra cosa que no será virtualizada son los routers de muy alta performance: un procesador de Intel generalmente puede procesar paquetes de 10 Gbs, mientras que nuestro router A6 puede hacerlo a 400 Gbs; esto ya indican la diferencia de rendimiento, por lo que no tendría sentido usar blades, blades y más blades sin ningún beneficio real: de hecho, sería mucho más caro.

Recíprocamente, ¿qué impacto tiene sobre el negocio de AlcaLu?

Que una parte muy importante de nuestro negocio no cambia en lo que es físico, pero sí cambia el software que incorpora, que se mueve a la nube y puede correr en servidores virtuales. La caja, la pieza física, puede ser la misma. Si cuantificamos, el 30% del gasto en capex cambia, lo que esencialmente quiere decir que se reduce. ¿Qué operador no estaría encantado? Bueno, al margen de los deseos de cada uno, la realidad de la demanda exige que la red crezca, de manera que el operador podrá gastar menos por CPU pero necesitará más CPUs para la capacidad requerida. Al final, esta es una suposición mía, yo creo que el capex se mantendrá en el mismo nivel, pero habrá cambiado de destino, pasará de una caja dedicada – que seguirá existiendo – a un servidor cloud.

Pero el operador logra un ahorro de opex… ¿es así?

[…] Ha llegado a ser muy complicado gestionar una red. Extremadamente complicado. Se ahorra en mantenimiento, en gente dedicada a llevar el datacenter, no hace falta tener expertos en cada campo, en definitiva se puede hacer mucho más con mucho menos. Por tanto, el ahorro de opex es real. Los gastos operativos son, en general, equivalentes al capex, de modo que si puede ahorrarse la mitad, nadie dirá que no. A veces, hay un cierto dispendio, porque la prioridad es que la red funcione. En fin, que es preferible ahorrar en opex que ahorrar en capex, si se puede, pero el capex puede enfocarse a un aumento de la eficiencia. Allá cada cual.

Las redes ya no son unívocas. ¿Cómo se combinan las fijas y las móviles? ¿Cómo encajan las small cells?

En realidad, las tres son partes de una misma cuestión: cómo evolucionan las redes. Si quiero desplegar small cells, tendré que contar con una red de retorno [backhaul] porque un ese sitio concreto, cientos de metros a la redonda, hay un cierto número de usuarios móviles, por eso necesito un acceso a la red fija. Desde el punto de vista de la experiencia del usuario, las dos redes se asocian: si usa su dispositivo en casa, el WiFi es un acceso a la red fija, y si lo usa en la calle me conecto a una red móvil, o a veces también a WiFi, de manera que sobre el dispositivo convergen dos redes. El usuario no tiene interés en saber sobre qué red está conectado y le da igual conectar en casa, en la calle, en el tren o en un café: lo que quiere es que haya una conexión disponible en todo momento, y que sea de calidad. Por esto, tienen ventaja los operadores convergentes, porque el acceso fijo es un facilitador.

[…] Han vuelto a ganar importancia las redes fijas y todos los operadores quieren ser´convergentes`…

Exacto. ¿Por qué cree que Vodafone ha comprado Cable & Wireless en Reino Unido y Kabel Deutschland en Alemania? Los activos de red fija han ganado en importancia, pero no sólo para dar Internet de alta velocidad sino como arquitecturas de backhaul. Convergencia quiere decir que en el futuro los servicios que hoy llamamos fijo o móvil serán el mismo servicio y los operadores ya tienden a ser los mismos.

Para Alcatel Lucent, tener una relación histórica con los operadores, ¿es una ventaja o una desventaja a la hora de venderles una infraestructura virtualizada?

Mi respuesta es: ambas cosas. Es una ventaja porque el software que hemos desarrollado para correr en nuestras cajas es un excelente punto de partida para virtualizar un activo: si un software es bueno dentro de una caja, sólo necesitará optimizarse para correr en una infraestructura virtual, no hará falta reescribirlo. De hecho, el 80% de nuestra inversión en I+D se destina a software desde hace mucho tiempo, y si parece que fuera hardware se debe a que dentro lleva ese software. La desventaja, digamos el riesgo, sería que nos percibieran como un vendedor de hardware temeroso de ser desplazado por los vendedores de software.

¿Ocurre?

Le ocurre a algún competidor, pero no a nosotros, porque estamos encantados de vender software con independencia del hardware: vendemos hardware, pero estamos completamente abiertos a vender software por separado. Cuando un operador anuncia que ha firmado con un nuevo proveedor, puede usted dar por seguro que ese proveedor no tiene detrás diez años de desarrollo de software, de paquetes IP, de IMS o sistemas relacionados.

¿Cuál es el papel de las small cells en la estrategia de Alcatel Lucent?

No se puede disponer de la capacidad wireless que acabo de contarle, sin recurrir a las small cells. Hay una limitación de espectro disponible, y la mejor manera de resolver el problema es acercarse al usuario: nodos más pequeños, small cells. En lugar de servir a unos miles de usuarios con una macro celda, servir a algunos cientos. Por esto las small cells son una parte de nuestro futuro, Mirando adelante, creemos que 5G será una arquitectura centrada en las small cells.

¿A qué se debe el acuerdo con Qualcomm sobre small cells?

Ya es suficientemente difícil encontrar emplazamientos, por lo que la ola inicial de las small cells tendrá lugar en espacios interiores: allí donde ahora hay un punto de acceso WiFi, habrá acceso WiFi y celular. Claro que hay tipos muy diferentes de espacios interiores, pero en general tienden a ser sitios donde la gente pide más y más capacidad. Esta es la primera razón del acuerdo con Qualcomm, porque son los mejores en soluciones multiestándar: 3G, 4G, WiFi, y porque tienen los mejores chipset de bajo consumo, que usamos en nuestro producto LighRadio.

Alcatel Lucent es uno de los pocos actores de esta industria que casi no presume de 5G

Probablemente se debe a que no nos gusta participar en ceremonias poco racionales. Otros hablan del dinero que están invirtiendo en desarrollar y acelerar 5G. En mi opinión, no significa gran cosa, porque la fase actual es de investigación, y en esta fase el dinero no es lo importante, lo que es importante es tener las personas adecuadas trabajando sobre el problema correcto. Anunciar que se están gastando 600 millones en 5G, me parece ridículo; en esta fase en la que nos encontramos, lo típico es trabajar con personas brillantes en pequeños grupos, un total de 100 sería apropiado, o tal vez bastaría con 50; cuando entremos en el desarrollo de productos, tener millones de dólares para gastar será de provecho, pero incluso en ese momento, 600 millones me parece un número demasiado alto. En los Bell Labs llevamos dos años trabajando activamente sobre 5G, pero no vemos la necesidad de presumir de dinero.

¿Cuál es el presupuesto de los Bell Labs?

600 millones… ja, ja. ja. No, mire, el presupuesto es satisfactorio, y no se lo diré, porque lo importante no es el diinero sino las 700 personas que trabajan en los Bell Labs. Es realmente más importante porque, en mi mentalidad, las verdaderas rupturas tecnológicas son normalmente obra de una sola persona. Hace poco ví a Eric Schmidt en televisión diciendo “Google está inventando el futuro”. Lo que pienso es que Google está comprando su futuro; en los Bell Labs sí que se inventa el futuro.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2019 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons