publicidad
  13/03/2017

Jay Parikh

Vicepresidente Ejecutivo de Ingeniería e Infraestructura. Facebook

Tras el bombazo mediático de su aparición sorpresiva del año pasado,  ha sido muy comentada la ausencia de Mark Zuckerberg en el Mobile World Congress 2017. Probablemente frustrante para quienes ven en el fundador de Facebook una celebrity y se ocupan de averiguar dónde y con quién cena en Barcelona [con Shakira y Piqué en Tickets, el año pasado]. A falta de Zuckerbeg, la presencia de Facebook ha sido más intensa que nunca, fuera de la vista del  público: en un espacio discreto, al que sólo se accedía por invitación y previa comprobación doble de identidad, se vivió un frenesí de reuniones, en especial con operadores de telecomunicaciones en los que la compañía suele encontrar reticencias.

Jay Parikh

Jay Parikh, vicepresidente ejecutivo de Facebook y responsable de su ingeniería e infraestructura que soportan sus servicios, fue acaso el más activo entre los lugartenientes de Zuckerberg. Puede decirse que, a la cabeza de un equipo de 800 ingenieros, Parikh es quien hace funcionar la maquinaria global de Facebook y de sus satélites WhatsApp e Instagram. Coordina, además, la ´hoja de ruta` con la que la compañía espera cumplir la «misión de un mundo más y mejor conectado». Entre reunión y reunión, Parikh recibió al autor de este blog.

¿Qué responde usted cuando los vendedores de hardware se quejan del impacto que la autosuficiencia de Facebook  ejerce sobre la industria?

[…] si empezamos así, tendré que remontarme unos años atrás. Entre 2008 y 2010, Facebook crecía a tal velocidad que las compañías proveedoras de soluciones de infraestructura para centros de datos a duras penas conseguían satisfacer nuestras necesidades. No eran lo bastante flexibles, sinceramente, lo que nos obligaba a buscar atajos, a menos que renunciáramos al ritmo que pretendíamos. Desde el punto de vista del negocio, implicaba costes, así que nos planteamos que para hacer las cosas de otro modo, tal vez tendríamos que hacerlas nosotros mismos.

[…] es decir,diseñar el hardware a su medida y contratar la fabricación a terceros.

Para que nuestros centros de datos fueran más eficientes, necesitábamos sistemas de computación, almacenamiento y networking más eficientes que los que podía suministrar la industria. El problema de fondo era cómo asegurar la escalabilidad de una plataforma que creciera al paso al que crecían el número de usuarios y la intensidad de sus usos. Tomamos una decisión juiciosa, creo. Otras compañías que han pasado por problemas similares se han guardado la solución tecnológica para sí. Pero como nuestras raíces vienen del movimiento open source, nos planteamos ¿y si compartiéramos nuestros avances en el diseño de los datacenter con la industria, para facilitar su colaboración? Fue lo que hicimos.

Lo interesante es que funcionó.  

La innovación se aceleró, y pronto fue seguida por una parte de la industria. Juntos, estos dos  factores produjeron un salto cualitativo de nuestra infraestructura. Fue decisiva la creación del Open Compute Project (OCP) para que se formara una comunidad de la que hoy forman parte diferentes vendedores y actores relevantes como Google y Microsoft, entre otros. Con todos ellos compartimos una visión común: la infraestructura de los centros de datos debe avanzar más rápido de lo que lo ha hecho en décadas.

Como concepto, open source se gesta en el software. ¿Hemos entrado en la era del hardware open source? ¿No hay peligro de que la búsqueda de apertura debilite la calidad? Para mucha gente, open source se identifica con low cost.  

Se equivocan, esa identificación es falsa.

Objetivamente, los costes bajan con open source. ¿Cómo asegurar que el fabricante de hardware cumpla los estándares de calidad si tiene que bajar sus costes?

Le diré un par de cosas al respecto.  La primera: somos rigurosos con los principios de open source, todo lo diseñamos y desarrollamos junto a un  ´ecosistema` de partners comprometidos con esos principios […]. La primera virtud de open source no es el precio sino la flexibilidad. En el software, open source ha sido una extraordinaria proposición de valor, y en el hardware es un paso hacia la flexibilidad de las infraestructuras.

¿Hardware y softwae en conjunto?

El impacto es incomparable cuando los dos responden a los mismos principios. Los problemas que se presentan pueden resolverse con una efectividad muy superior a la de cualquier solución cerrada […] En OCP se siguen estrictamente los ciclos de testing, y no se sacrifica nada de la calidad que hardware y software deben tener. En nuestro caso, de ella depende el servicio que esperan de  Facebook más de 1.800 millones de usuarios. Otra de nuestras preocupaciones es que todo sea lo más simple posible: muchas de las especificaciones de un servidor convencional son prescindibles a nuestra escala, y por tanto el hardware OCP es mucho más fácil de certificar.

Se entiende que valga para Facebook, pero ¿no debería ser válido para otras empresas que no tienen su escala?

Los problemas tienden a ser similares aunque la escala sea diferente. Todos trabajamos con machine learning, todos hacemos análisis de datos, generamos reportes, almacenamos documentos e imágenes,… hay una necesidasd general de ganar capacidad y flexibilidad. No en la escala de Facebook o de Microsoft, claro, pero hay empresas y bancos que han probado y desplegado hardware desarrollado por OCP, y se benefician del ecosistema aunque originalmente no estuviera pensado para ellas.

¿Es decir que es aplicable al datacenter de una empresa típica?

Yo creo que es muy aplicable. Lo que estamos haciendo para que nuestros datacenter sean más eficientes, es una inspiración para la industria. Desde una búsqueda de flexibiidad, es importante la desagregación, ser capaces de planificar las capacidades por separado. Quizá no se necesiten tantos servidores o tantos switches para obtener los mismos resultados.

¿Cómo ve el la perspectiva de OCP en el mercado? ¿Cuáles los próximos pasos?

En primer lugar, queda trabajo por hacer en materia de computación, y por tanto tenemos proyectos relacionados con el diseño de los servidores. Luego está el almacenamiento, que en este momento es un mundo con gran dinamismo y una apremiante  necesidad de conjugar escala con eficiencia. Uno de los objetivos que nos planteamos es desagregar las capas de computación, almacenamiento y networking, en lugar de integrar todo en una caja monolítica.

Parece que últimamente la atención se ha desplazado al networking. Algunos vendedores están tan preocupados como los de servidores.  

Yo prefiero destacar lo mucho y bueno que la comunidad está haciendo en materia de switching, cuyo fruto más reciente es la segunda generación de Backpack [nota: este ´open switch` modular ha sido diseñado  para soportar flujos de datos de 40 a 100 Gbps]. Más allá de OCP, hay un movimiento interesante en torno a TIP (Telecom Infra Project) Empezamos el  año pasado con cinco miembros fundadores y unos treinta partners, que actualmente suman 450. Hemos superado hitos importantes: ARIES, Terragraph, OpenCellular, Voyager, el primer vuelo de Aquila, etcétera. De todo podemos sacar una lección: la tecnología sólo es una parte de la cuestión.

¿Qué quiere decir?

Que la tecnología tiene que servir para encontrar soluciones para quienes, en distintas partes del mundo, tienen conexiones deficientes o no tienen ninguna, pero que desean y necesitan estar conectados como el que más.

¿Cómo mide Facebook la intensidad de su inversión en estos proyectos?

La métrica está vinculada al número de usuarios. Facebook, WhatsApp, Instagram, Oculus y Messenger se benefician de la misma infraestructura, cada uno con sus cargas de trabajo, distinto software y distintas soluciones. Una función es el número de usuarios, otra es lo que hacen gracias a nuestra infraestructura. Para soportar streaming de vídeo a  decenas o cientos de millones de usuarios en distintas partes del mundo, necesitamos unas capacidades de codificación, de almacenamiento y de ancho de banda con extraordinaria flexibilidad […] que requieren planes de inversión específicos.

El vídeo es un problema nuevo …

Nuevo y antiguo a la vez. Es un reto que exige doble tratamiento, como producto y como infraestructura. Obviamente, hay mucho ruido en torno al vídeo, es un deseo casi unánime de los usuarios: capturar, subir, compartir, consumirlo en toda clase de formatos y distintos contenidos. Por lo tanto, tenemos que dotarnos de capacidad para atender todas esas perspectivas […] Los usuarios quieren que su experiencia sea instantánea, no están dispuestos a aceptar nada menos.

Si viven en el mundo desarrollado, está a su alcance. No así en el  resto del mundo

No se trata sólo de Estados Unidos o de Europa ni de ciertas metrópolis. Hoy, se genera y se consume vídeo en todo el mundo, con independencia del grado de desarrollo. ¿Cómo construir una infraestructura que pueda servir a tantísima gente, sin excluir a quienes usan móviles antiguos, viven en zonas de baja cobetura o sólo pueden conectarse a redes deficientes?  ¿Cómo hacer que esa gente, que son muchos millones de personas, tengan una buena experiencia de Internet? Es una obsesión para Facebook, y esa es mi responsabilidad.

 


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons