publicidad
 
  18/04/2018

En supercomputación, el ranking no lo dice todo

Durante décadas, los superordenadores o High Performance Computers (HPC) como se dice ahora, se han especializado en analizar datos numéricos, a base de aplicar modelos de simulación de la realidad, aplicados a campos científicos como la meteorología, la astronomía, la medicina o las partículas subatómicas. Conforme se refinaban los modelos matemáticos, más necesidad había de engordar la capacidad de proceso: más volumen de datos y en paralelo. Hasta que el agotamiento de la ley de Moore hizo patente que los procesadores no podían progresar al ritmo exigido. Así empezó la exploración de modelos predictivos que han llevado a desarrollar nuevas arquitecturas de alto rendimiento.

Ha dejado de ser noticia que China encabeza, aventajando a Estados Unidos y Japón, el ranking mundial de superordenadores. Ni que el más potente instalado en España, el Mare Nostrum del Barcelona Supercomputing Center (en la foto) ocupaba el puesto 16 en la lista de noviembre gracias a su reciente actualización.

Algunos expertos han señalado que el ranking, elaborado semestralmente por la universidad de Mannheim, debería escindirse en dos segmentos, para reflejar la diferencia creciente entre usos científicos y corporativos de estas tecnologías. Dicho sea de paso, una escisión permitiría remontar la imagen de la industria estadounidense, hoy relegada por China.

La partida geopolítica no es la única que se juega. La Inteligencia Artificial (IA) y las nuevas tarjetas gráficas han sacudido una tecnología que parecía condenada a repetirse creciendo sólo en potencia de cálculo. Durante los próximos cinco años, el mercado de servidores HPC crecerá a un ritmo del 6% anual, por encima de otras categorías de hardware. El fenómeno no sólo abre apasionantes perspectivas científicas: la demanda se empieza a bifurcar con aplicaciones empresariales.

Machine learning y redes neuronales, para tratar cantidades virtualmente ilimitadas de datos a veces inconexos, con el fin de extraer patrones útiles. Estos ´modelos de síntesis`, como se los ha bautizado, combinan la IA con la simulación tradicional y permiten a) una mayor fiabilidad de resultados, b) aceleración de las soluciones y c) reducción significativa de costes.

No habrían sido posibles sin el espectacular progreso experimentado por las tarjetas gráficas en los últimos años y sin las bibliotecas de programas compatibles, desarrollados para inferir patrones procesando miles de millones de imágenes. Desde casi primera hora, los superordenadores han contado con coprocesadores que ayudaban a las CPU, pero la aparición de potentes tarjetas gráficas ha cambiado las condiciones imperantes.

Algunas cifras ayudarán a entender lo que está en juego. El mercado de servidores HPC [categoría ahora sometida a revisión] creció el 4,4% en 2016 hasta facturar 11.200 millones de dólares, batiendo el récord precedente del excepcional 2012, según la consultora Hyperion Research, segregada de IDC. Aún no se conocen los datos de 2017, pero se estima que el mercado habrá crecido un 6% y que este ritmo se mantendrá los próximos cuatro años. Hyperion calcula una media del 5,8% hasta 2021, que llevaría los ingresos a 14.900 millones de dólares.

Pero no se trata sólo de los servidores HPC. Los mercados adyacentes (almacenamiento, middleware, aplicaciones y servicios) representaron en 2016 una cifra curiosamente idéntica: 11.200 millones, pero se espera que crezcan un punto adicional, lo que implica que en 2021 rozarían la cifra de 15.400 millones. Todo sumado, el mercado HPC generaría para entonces una facturación global de 30.250 millones.

Lo más interesante empieza con el desglose. Hyperion pronostica que el segmento de más crecimiento será el de los clásicos superordenadores, esos mastodontes que cuestan más de medio millón de dólares y que constan de decenas, o centenares, de armarios conectados en paralelo. De unos 4.000 millones de dólares en 2016 – que ya representaron un 26,2% de crecimiento –  deberían trepar hasta 5.400 millones dentro de cuatro años: una tercera parte del total de sistemas HPC.

En buena medida, la disponibilidad de procesadores muy potentes y de tarjetas gráficas concebidas para estas máquinas explica el entusiasmo por los superordenadores: el inicio de entrega de los nuevos Xeon de Intel, los Power 9 de IBM, los EPYC de AMD y, muy especialmente, las tarjetas Volta de Nvidia, expresan esa corriente.

Por supuesto, los proveedores de sistemas HPC se frotan las manos: con esos componentes pueden ensamblar ordenadores mucho más potentes, capaces y versátiles. Los grandes proveedores cloud – que el sector llama hyperscalers empiezan a suministrar servicios de IA bajo demanda y en la nube, lo que provocará otro incremento de la demanda.

Entre los fabricantes, el que mejor partido del fenómeno está sacando sería Hewlett Packard Enterprise, con unas ventas [en 2016, para comparar con los datos precedentes] de 3.800 millones de dólares en servidores HPC, en la estimación de Hyperion. A la lista Top 500 de noviembre, HPE aportaba 122 máquinas, con un 24,4% de cuota. Sigue Dell Technologies, con cerca de 2.000 millones y, bastante más lejos, Lenovo (909 millones) e IBM (492 millones). Hay que apuntar que la compra por Lenovo del negocio de servidores de IBM catapultó a la empresa china e hizo retroceder al antaño gigante azul. Por su parte, HPE ´leyó` bien la tendencia y adquirió Silicon Graphics, especialista atormentado pero con una tecnología excelente.

La caída (relativa) de IBM puede ser circunstancial. Depende en parte de la adjudicación de concursos convocados por laboratorios del gobierno de Estados Unidos y también de la aceptación de sus procesadores Power 9, acoplados a gráficas P100 de Nvidia. También de los avances de Intel, con un 40,6% del total de sistemas instalados. Si AMD sacara por fin unas tarjetas gráficas que aumenten las capacidades intrínsecas de sus nuevos EPYC, podría ganar algo de terreno.

Entretanto, Cray, suministrador de superordenadores por antonomasia, está sumido en una profunda crisis de la que podría sacarlo un contrato con el departamento de Energía estadounidense. Su facturación ha caído en picado y si no fuera por la instalación del sistema más potente en India, tendría difícil disfrutar del nuevo auge de la categoría.

Estados Unidos aspira a ponerse en cabeza cuando se complete la instalación del nuevo Summit en el laboratorio nuclear de Oak Ridge, que alcanzaría los 200 teraflops por segundo de potencia máxima. El Sunway TaihuLight ocupa el primer puesto con 93 teraflops/s, mientras que el más potente de Estados Unidos, Titán, es sólo el quinto del ranking.

No está claro, sin embargo, que el Summit se encarame y arrebate a China el liderazgo: la prensa china ha presumido de que su país tendrá antes de finales de año un nuevo superordenador de 240 teraflops/s. La crítica a la lista Top 500 subraya que se calcula sobre una base de potencia pico (Rmax), que no necesariamente implica más capacidad o eficiencia. En la práctica, muchos de los sistemas que aparecen en las cien posiciones de cabeza son propiedad de hyperscalers; esencialmente, se configuran con miles de servidores sencillos interconectados.

El desarrollo de superordenadores mucho más potentes se enfrenta a más retos antes de que pueda alcanzarse el listón exascale, medida de 1.000 teraflops/s. Es ahí donde los modelos de síntesis y las tarjetas gráficas pueden dar un empujón antes de que puedan resolverse los problemas derivados del proceso masivamente paralelo y antes de que se desarrollen memorias capaces de manejar tanta información simultáneamente.

[informe de Lluís Alonso]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2018 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons