publicidad

Newsletter

22 de febrero, 2017

Observo un desorbitado interés mediático por la salida a bolsa de Snap, creadora de la aplicación Snapchat. Esta OPV [no OPA, como he leído por ahí] se concretará el próximo 1 de marzo y se supone que podría alcanzar una valoración bursátil de 22.000 millones de dólares. Si así fuera, sería interpretada como una señal para que otras startups que esperan agazapadas den un paso al frente. Pero hay derecho a asombrarse ante esa hipotética valoración, poco plausible para una empresa que en 2016 facturó 404 millones… y perdió 514 millones.

El papanatismo imperante ha entronizado a su cofundador, Evan Spiegel (26 años) como el multimillonario más joven de Internet. Digo a conciencia papanatismo, porque el otro dato que se ensalza de su biografía es que ha conseguido llegar a millonario tras abandonar sus estudios, argumento que antes se usó para celebrar a otro ´visionario`, un tal Mark Zuckerberg. De ahí que algunos medios jaleen la ocurrencia de que Spiegel es candidato a ser el próximo Zuckerberg (sic). Es curioso, porque lo más importante que ha hecho Spiegel para merecer ese estatus es rechazar la oferta de 3.000 millones que le hizo Facebook por su aplicación.

Zuckerberg no soportó el desaire y sólo un mes después, lanzaba precipitadamente Poke, clónico de Snapchat que fracasó antes de ser reemplazado por Slingshot, otro fiasco. Sonó la flauta con Instagram, que costó 1.000 millones. Veamos: Facebook no desagrega en sus resultados la parte que corresponde a Instagram, pero los analistas han calculado que ingresa más de 3.000 millones y que su eventual valor en bolsa (si cotizara por separado) sería de 54.000 millones, lo que significaría que aporta el 14% de la capitalización actual de Facebook. Supuestamente.

Desde que Evan le hizo la cobra a Mark, Instagram y Snapchat se emulan  mutuamente; hasta el punto de que su principal función, Stories, se llama así en ambas aplicaciones. Con la poderosa ventaja de estar asociada a la plataforma de Facebook, Instagram ha podido alcanzar en diciembre la cifra de 600 millones de usuarios activos mensuales, mientras Snapchat no pasaba de 158 millones. Además, su ritmo de crecimiento viene flaqueando porque cada novedad que incorpora Snapchat es replicada de inmediato por su rival, que así frena sus intentos de ganar cuota.

Cuando Facebook salió a bolsa en 2011 [y bien que las pasó canutas para superar una fría acogida], su  ingreso medio por usuario era de 3,20 dólares; a título de comparación, cinco años después el ingreso medio de Snapchat era de 2,15 dólares por usuario. Son otros tiempos, pero algo no ha cambiado: en Internet, los ingresos publicitarios se obtienen en función del número de usuarios y, sobre todo, del tiempo que cada uno pasa enganchado a la aplicación. Estos dos factores sirven para maximizar el precio de los anuncios. En esto, la distancia entre Snap e Instagram es sideral.

Se puede sostener que la OPV es prematura, que comparativamente ha consumido poco capital antes de precipitar a la bolsa, que su valor intrínseco no está demostrado y que más parece primar un deseo de enriquecimiento rápido que un plan de negocio sostenible. Sí, se puede sostener, y hay quien avisa. Surge de la documentación preceptiva que  por cada dólar que Snap ingresó en el cuarto trimestre de 2016, gastó 93 centavos. Curiosamente, la mayor parte de sus costes benefician a Google, que tiene un contrato para suministrarle servicios cloud por 400 millones de dólares anuales durante cinco años.

El folleto oficial registrado atribuye las pérdidas de la empresa a las necesidades de inversión y de reclutamiento de personal. Advierte, como está mandado, sobre uno de los riesgos que corren los inversores: “es posible que nunca alcancemos o mantengamos la rentabilidad”. No tengo nada en contra de perder dinero, pero sí opino que quienes avalen su modelo financiero deberán tener muchísima fe en una estrategia que pretende trasmutar una baja audiencia en una alta valoración.

Hay otro elemento mucho más inquietante, del que los papanatas no hablan: la gobernanza. Desde luego, no es la primera vez que los fundadores de una startup se las ingenian para prevenir que los inversores que acuden a una OPV les digan cómo gestionar su negocio [Alphabet y Facebook son dos paradigmas de discriminación entre accionistas]. En este caso, Spiegel y su socio Bob Murphy han ido más lejos que nadie al montar una estructura de capital en la que las acciones disponibles no tendrán voto acerca de la estrategia y gestión de la compañía.

Tal cual. Snap tiene estatuídas tres clases de acciones: A, B y C. Las de clase A, las que se negociarán en el New York Stock Exchange, darán derecho a asistir a las juntas de accionistas y a plantear preguntas, pero no a votar. Las de clase B están reservadas a los ejecutivos y a los inversores de primera hora y conllevan el derecho a un voto por acción. Las de clase C, reservadas exclusivamente a Spiegel y Murphy, disfrutarán de 10 votos por cada acción. Gracias a esta estructura – que no sólo es legal sino cada vez más frecuente – los jóvenes fundadores controlarán un poder de voto que, combinado, equivale al 88,5%.

20 de febrero, 2017

Cisco lleva tres años de viraje en su modelo de negocio. La maniobra la inició John Chambers y en ella persevera su sucesor, Chuck Robbins. Pero hacer cambiar de rumbo un barco de esta envergadura (49.000 millones de facturación en 2016) pide tiempo. Esta explicación justificaría por qué el segundo trimestre del año fiscal 2017 se ha cerrado con una caída del 3% secuencial y del 2% interanual en los ingresos (11.600 millones); el beneficio neto bajó un 25% (2.350 millones). Más complicado es entender por qué, con estas cifras poco halagüeñas, la acción de Cisco ha alcanzado su nivel de cotización más alto en quince años. Veamos.

Que los ingresos de Cisco descendieron a lo largo de los últimos cinco trimestres, es primordialmente consecuencia de que tanto las empresas como los proveedores de servicios han invertido durante ese tiempo menos y menos en comprar los productos que han sido durante décadas la fortaleza de Cisco. Las divisiones de switching y routing lo han sufrido  de lleno, y la maniobra de Robbins pretende reducir esa dependencia para centrarse en el software y acentuar el porcentaje de los ingresos recurrentes, impulsando el modelo de servicios por suscripción.

No hay duda de que estos objetivos se van cumpliendo: los ingresos recurrentes han pasado de representar el 26% del total justo antes de la elección de Robbins como CEO al 31% en el trimestre cerrado en enero.

La mayoría de los analistas secundan la estrategia de Robbins: “la gran historia que veo en Cisco es el modelo de suscripción y, por tanto, la predictabilidad del cash flow”, sentencia Mark Moskowitz, de Barclays. Kulbinder Garcha, de Credit Suisse, opina lo mismo, pero se inquieta por la durabilidad de la tendencia; peor aún, de que tal vez fuera más débil que el declive de otras fuentes de ingresos: “cuatro de las nueve divisiones de Cisco han declinado, y entre ellas se encuentra la de Datacenter, que ha sido un éxito en los últimos cinco o seis años”.

Era lógico que resurgieran las dudas acerca del alto precio pagado por la compra de AppDynamics. No por la compra en sí, sino por el precio. Robbins hizo caso omiso: “el 75% de los ingresos de AppD está basado en suscripciones, por lo que está alineado con la preferencia de los clientes y con el objetivo estratégico de Cisco”, respondió por todo comentario. Kelly Kramer, la CFO interpelada, saltó a defender el rigor de los procesos de evaluación antes de proceder a una adquisición. Asunto zanjado.

A la vista de las cifras, la división de Seguridad es la que más crece, un 14%, y su contribución equivale a una ratio anual de 2.000 millones de dólares pero, ay, resulta que sólo equivale al 5% del total, por lo que – un crecimiento de doble dígito es envidiable en estos tiempos – difícilmente bastarían sus solas fuerzas para enderezar el barco.

En realidad, la tarea requeriría una mejora sensible en las dos divisiones que más pesan en el conjunto: Switching y Routing, juntas, suman el  56% y han retrocedido un 5% y un 10% respectivamente. Otra forma de desglose de los resultados trimestrales es esta: los productos bajaron un 5,5% mientras los servicios subían un 4,9%. Pero, puesto que los  productos aportan el 73% del total de los ingresos, puede concluirse que la transición, tal como ha sido descrita, tiene límites.

Por ejemplo, en el segmento de los proveedores de servicio (para entendernos, operadores) Cisco está pagando el pato de la contracción del  capex. Estos clientes específicos – dijo Robbins a los analistas – varían de un trimestre a otro las prioridades de sus inversiones, no siempre en la dirección que vendría bien a Cisco, lo que impide al CEO pronunciarse sobre el medio plazo.

El énfasis puesto en destacar el avance de los ingresos recurrentes ha sido asumido por los analistas, como si olvidaran que Cisco es el primer suministrador de switches y routers a los centros de datos y uno de los primeros de servidores, con la promesa pendiente de apostar más enérgicamente por la hiperconvergencia. Puede que lo más lúcido de la última fase de Chambers haya sido propiciar la fusión entre networking y computación, en la familia UCS, que genera unos 3.500 millones de dólares anuales; del actual CEO se espera una renovación  del catálogo.

Es materia opinable que el negocio tradicional de Cisco desluce frente al empuje de los nuevos, pero se nota en el escaso tiempo que Robbins le dedicó en la conferencia del miércoles 15. Que sin una transformación del modelo, las cosas hubieran sido peores, es una verdad como un templo, pero ¿qué sería hoy Cisco de no haber defendido su espacio natural, adaptándose a la tendencia de virtualización de las redes?

Por cierto, el alza de la cotización sólo puede explicarse por expectativas ajenas a la marcha del negocio de Cisco. El crecimiento de los ingresos en los últimos cinco años, apenas ha  superado el 1% anual, pero la hucha ha permitido mantener contentos a los accionistas. Lo prueba un detalle: el beneficio neto cae, pero el beneficio por acción sube, ¿por qué? porque hay menos títulos cotizados. No deja de ser llamativo que, junto con los resultados, se anuncie un 12% incremento del dividendo.

Otra expectativa que flota en el aire es el uso que Cisco pueda hacer de su tesorería [72.000 millones de dólares, de los que sólo 9.000 millones están en EEUU], engrosada por otros 37.000 millones obtenidos mediante deuda a largo plazo y bajo interés. Se supone que, cuando se concrete la repatriación a bajo coste prometida por Donald Trump de los fondos aparcados en el exterior, los accionistas tendrán premio a su paciencia. O no tanto como esperan:  según sugirió Robbins, la política de adquisiciones saldrá reforzada, y Cisco no se echará atrás ante las barreras de coste.

15 de febrero, 2017

Hace trece años,  la decisión del ayuntamiento de Munich de adoptar Linux y desterrar Windows marcó un hito en la batalla entre los dos sistemas operativos y, en claro, entre el denostado software ´propietario` y el movimiento open source. A partir de 2004, la capital bávara sería imitada por numerosas administraciones en toda Europa: es notorio, en España, el caso de Extremadura, que encomendó el desarrollo de una distribución propia de Linux para sus empleados y su sistema educativo.

Parece que estamos a punto de asistir al reflujo de la ola. Según la prensa alemana, el ayuntamiento de Munich podría aprobar esta semana el movimiento contrario, para que a partir de 2020 su base instalada de PC trabaje sobre Windows 10. Esto, al menos, es lo que propone un comité de funcionarios que fue designado por el alcalde para reorganizar la infraestructura de TI de la ciudad bávara. A largo plazo, estos aconsejan que las aplicaciones usuales dejen de depender en exclusiva de cualquier sistema operativo, y deberían basarse en la Web o, mediante la virtualización, prever su futura migración al modelo cloud.

Es inolvidable que aquella decisión provocó un estallido de furia en el entonces CEO de Microsoft, Steve Ballmer, quien calificó a Linux de ´cáncer` para la industria y hasta de ´subterfugio comunista` (sic). Con los años, el propio Ballmer rectificaría su vehemencia e inició un proceso de aproximación a Linux que su sucesor, Satya Nadella, ha llevado más lejos de lo que cualquiera hubiera imaginado. Oficiosamente, incluso se admite la insólita posibilidad de que Windows se reconvierta algún día en open source.

La introducción en Munich de LiMux [una distribución ad hoc de Linux basada en Ubuntu] y de la suite LibreOffice, resultó más complicada de lo que esperaban sus promotores. Apenas iniciada, el departamento de recursos humanos se quejó de la incompatibilidad con sus sistemas de Oracle y SAP. Tarde se descubrió que Linux descollaba en los servidores – domina el panorama de los centros de datos como sustituto de Unix – y en los móviles a través de su kernel embebido en Android – pero no ha tenido mayor éxito en las aplicaciones desktop. Es la conclusión de un informe que el nuevo alcalde, elegido en 2014, encargó a Accenture. Por otra parte, la convergencia de Linux con Azure, da lugar a pensar que, si la ciudad de Munich se inclinara por la migración a la nube, sería una baza para Microsoft.

La consultora recomendó, en principio, la opción de elegir entre los dos entornos. Sin embargo, a la vista de la impopularidad de LiMux entre los empleados municipales, expresó dudas sobre la viabilidad financiera de esa dualidad. Según Heise Online, el coste de migrar 15.000 PC de Windows a LiMux a partir del 2004 ha sido de 32 millones de euros, pero no se conoce todavía una estimación de lo que podría costar la reversión. La planta de servidores no se verá afectada; los empleados podrían seguir usando aplicaciones de LibreOffice, si lo desean.

Como es de imaginar, la cuestión tiene matices ideológicos. Tanto el alcalde de 2004 como el actual, socialdemócratas, gobiernan en coalición con los Verdes. Estos últimos han diluído su entusiasmo por open source, pero serían partidarios – según la misma fuente – de preservar la coexistencia entre ambos sistemas operativos. Lo que, de todos modos, ocurrirá durante el período de transición hasta 2020. La única oposición aparente proviene de la Free Software Foundation Europe (FSFE).  Es lo suyo, pero hay un argumento imbatible: la opinión de los usuarios finales.

 

13 de febrero, 2017

Si tuviera que elegir un protagonista de la semana pasada sería, a efectos de este blog, Brian Krzanich, CEO de Intel. El Investor Day del jueves ha certificado que la compañía está embarcada en una transición profunda, que Krzanich llamó “probablemente la mayor que ha vivido Intel en toda su historia”. No es retórica: de los 59.400 millones de dólares ingresados en 2016, la mayor parte siguió correspondiendo a los chips para PC, pero este es un mercado que se achica cada trimestre, degradando el margen operativo. Por otro lado, la demanda de servidores para datacenter se contrae, al menos en su vertiente on-premise.

Así las cosas, el crecimiento hay que ir a buscarlo en otras líneas de negocio: cloud, HPC, memorias, IoT, comunicaciones, etc. Supondrá inversiones de capital que habrá que explicar muy bien a los inversores, que sólo miran el cash flow como fuente de retorno. Cierto que el accionariado de Intel es conservador, estable y paciente, pero se hace preguntas como cualquiera.

Si no me equivoco, el estrellato de la sesión correspondió a Diane Bryant, VPE a cargo del Data Center Group (DCG). Según ella, esta rama de Intel debería crecer a un ritmo del 6% anual hasta 2021, un período en el que la línea de negocio convencional a su cargo podría declinar un 5%. Ecuación que resume muy bien el marrón que  le ha caído a Bryant.

También se supo la semana pasada que la octava generación de la microarquitectura Core seguirá basándose en la tecnología de fabricación de 14 nanómetros. Coffee Lake, próximo miembro de la familia, será de 14nm, y su disponibilidad se adelantará a la segunda mitad de este año. Un consumidor podría preguntarse por qué comprar ahora un PC con Kaby Lake estando tan cerca la llegada de Coffee Lake, pero el cálculo es otro.

En septiembre pasado, circuló una supuesta hoja de ruta en la que Coffee Lake se marcaba para marzo o abril de 2018. O la filtración era falsa, o Intel cambió su calendario. En la práctica, esto no significa que renuncie a sus planes en 10nm, más bien lo contrario, pero se entiende de facto como reconocimiento de que no tendría capacidad de entrega a tiempo para que los fabricantes lleguen con sus productos a las estaciones clave del año. De modo que ha decidido prolongar el ciclo de 14nm, que así acumularía cuatro fases.

Históricamente, cada salto tecnológico de Intel ha tenido como primer destino los chips para PC. En 2017, el privilegio pasa a las CPU de servidores: los primeros ejemplares de 10nm estarán disponibles en procesadores Xeon para datacenter y luego vendrán los de PC. Otra prueba de la relevancia adquirida por el  DCG también en las prioridades de fabricación.

Hay otra razón para dar a Krzanich el merecido protagonismo. En pleno contencioso sobre el veto inmigratorio de Donald Trump  – Intel, en su condición de “empresa fundada por un inmigrante” [Andy Grove] ha firmado en contra del decreto presidencial – no fue obstáculo para que el CEO de la compañía compareciera junto a Trump en el Despacho Oval, y anunciara que invertirá 7.000 millones en una planta en Arizona, equipada para fabricar chips con proceso de 7 nanómetros, que supondrá 3.000 puestos de trabajo.

Krzanich sintió necesidad de explicar en un memorando a los empleados de Intel que su gesto no implica apoyar ciertas políticas de Trump con las que discrepa, pero la fecha elegida para el anuncio se presta a interpretación. Durante el acto en la Casa Blanca, el CEO subrayó ante las cámaras que “las políticas fiscal y regulatoria prometidas por la nueva administración nos han animado a retomar el proyecto de inversión que teníamos parado”.  Tuvo que salir Stacy Smith, presidente de fabricación de Intel, a precisar que no contempla subvenciones gubernamentales. En fin…

Si mis archivos no fallan, este anuncio es una reedición del que hiciera  Paul Otellini en 2011, junto a Barack Obama de visita en la planta de Intel en Hillsboro (Oregon), sitio que originalmente debía haber acogido la llamada Fab 42 (con proceso de 10 nm, que ahora se hace en Israel). El plan quedó congelado por la debilidad del mercado, y al poco tiempo Intel procedió a suprimir globalmente 12.000 puestos de trabajo, parte del legado que Otellini dejó a Krzanich.

Con el anuncio de la semana pasada, el proyecto se desplaza a Arizona, donde ya está hecha parte de la obra civil. Donald Trump tardó minutos en apuntarse en  Twitter los 3.000 empleos que beneficiarán a “la buena gente de Arizona”. Intel ya es el primer empleador en Oregón y el segundo en Arizona, además de tener líneas de producción en Irlanda, Israel y… en China.

 

 

6 de febrero, 2017

Los resultados del trimestre octubre-diciembre, primero del año fiscal 2017 de Apple, han levantado una ola de entusiasmo bursátil: la acción trepaba el viernes a sólo un dólar de la cotización más alta de los últimos diez años, o sea desde que el iPhone existe. Hay sólidas razones para este rally, pero también motivos de inquietud por un factor persistente: la excepcional dependencia de Apple con respecto al iPhone, el 69,4% de los ingresos  y  – según estimaciones – algo más del 80% de los beneficios. En un contexto de estancamiento del mercado mundial de smartphones, el asunto merece unas líneas.

Los 78.351 millones de dólares de ingresos, un 3% de incremento en doce meses, marcan un récord histórico. Sin embargo – perdón por hacer de Pepito Grillo – el trimestre tuvo 14 semanas, una más que el de referencia un año anterior, lo que hace una diferencia importante en estas magnitudes. En cuanto al beneficio neto [17.391 millones] fue un 2,6% inferior al de igual trimestre en 2016, pero habiendo menos acciones entre las cuales dividirlo, se ha podido calificar como récord que el beneficio por acción subiera de 3,30 a 3,38.

Normalmente, el primer trimestre de cada año fiscal es el más rentable del ciclo, por dos razones: es tiempo de campañas (Black Friday y Navidad) y también el primero de cada generación del iPhone. Se nota en el ambiente un deseo manifiesto de subrayar que Apple está viviendo un momento histórico. Esta corriente contrasta con otra cuya tesis insiste en que Apple ha perdido su aura innovadora desde que Tim Cook sustituyó al difunto Steve Jobs. Ambas posturas, en mi opinión, responden a intereses creados.

Las noticias de la semana pasada se han simplificado demasiado al hacer hincapié en el iPhone, y es lógico que así sea. Según datos de IDC, Apple ha superado a Samsung en ventas de smartphones en el trimestre, aunque la marca coreana ha cerrado el 2016 como líder. A menos que tenga algo nuevo que mostrar, a Samsung se le hará cuesta arriba contrarrestar las expectativas en torno al futuro iPhone 8, que previsiblemente verá la luz en septiembre.

Si nos centramos en el iPhone, resulta que ha tenido un crecimiento del 5% en el año, tanto en unidades [78,3 millones] como en ingresos [54,378 millones de dólares]. También récord histórico. Los 3,5 millones de unidades adicionales tienen una explicación plausible: hace un año no existía el iPhone SE (lanzado en marzo de 2016), lo que incita a pensar que, en realidad, el agregado iPhone 6/iPhone 7 no habría crecido sino tal vez decrecido.o

Un aspecto que no he visto en las crónicas es el precio medio (ASP) de los  iPhones despachados, que ha subido de 690 a 694 dólares. Se siente uno tentado de multiplicar esos 4 dólares por los 78,3 millones de iPhones. Pero tiene fácil explicación: el iPhone 7 Plus, el más caro de la familia, ha tenido un gran éxito pero, además, está el factor del almacenamiento: en la anterior generación, iba de 16Gb a 64Gb, que en la actual ha subido a 32 Gb y 128 Gb. La diferencia estimula que la mezcla del mercado total se desplace hacia los modelos de mayor capacidad y mayor precio.

Porque la variante fundamental en el modelo de negocio del iPhone es el ASP (Average Sale Price). Todavía no hay indicios de si Apple renovará su smartphone de gama media SE, pero marzo está a la vuelta de la esquina: empezarán las filtraciones acerca del iPhone 8. Es una gimnasia que Apple tendrá que controlar para que no debilite prematuramente a los modelos vigentes. Presumiblemente, la batalla por el mercado mundial acentuará el peso específico de los modelos premium, como podrá verse en el Mobile World Congress: todas las marcas que pintan algo quieren batirse por la cuota del iPhone.

Otro componente destacado en los resultados del trimestre han sido los servicios [contenidos, Apple Care, Apple Pay, licencias, etc], cuyo aumento ha sido espectacular: 18% interanual. Está muy bien, pero han sido 7.172 millones de dólares, el 13% del total de ingresos. Cumplen la estrategia trazada, pero no son el sustituto necesario del iPhone, entre otras cosas porque hay un vínculo visible entre ambos.

Entretanto, el iPad sigue su linea descendente [-19% en unidades, -22% en valor] confirmando la tendencia general del mercado de tabletas: no sólo se venden menos, sino que la gama baja concentra la demanda. Parece como si el iPad Pro ha hecho muy poco para iniciar una recuperación: el precio medio de esta familia de productos ha caído en sólo tres meses de 460 a 423 dólares.

¿Y el Mac? Bien, gracias. Las ventas han sido razonablemente buenas [casi 5,4 millones de unidades, 1% de crecimiento] y su precio medio ha subido de 1.270 a 1.348 dólares. Algo que, desde luego, no pueden decir otros fabricantes de PC, pero no tendrá influencia real en el futuro de Apple: es un producto histórico, intocable, pero no está claro cuánta atención le dedica la compañía en esta fase de su desarrollo.

30 de enero, 2017

Pudo haber sido la primera salida a bolsa de una startup tecnológica en el 2017, buena ocasión para averiguar si el mito de los ´unicornios´ sigue vigente. Pero, 24 horas antes, se interpuso el acuerdo por el que Cisco acepta pagar 3.700 millones de dólares por AppDynamics, a la que en su última ronda de financiación se atribuía un valor (hipotético) de 1.900 millones.

Suele decirse que las cosas valen lo que alguien esté dispuesto a pagar por ellas. En este caso, el brusco giro sugiere la existencia de más de un candidato, y el CEO de Cisco, Chuck Robbins, no quiso que la presa se le escapara. La precipitación no explica qué méritos tiene AppDynamics para duplicar el precio estimado por sus inversores y justificar un múltiplo de 18 veces la facturación del año pasado. Lo que me lleva al interesante ejercicio de preguntarse por las razones que animan a Cisco, más allá de su habitual bulimia compradora.

La primera reacción de los analistas ha sido de perplejidad. Han visto que New Relic, competidor directo y de tamaño similar al de AppDynamics, llevaba dos años vegetando en la bolsa desde su OPV de diciembre de 2014, hasta que la noticia protagonizado por su rival ha hecho que subiera un 14% en un día. Se me ocurren tres preguntas que intentaré responder: 1) ¿vale AppDynamics el precio pactado?, 2) ¿cómo encaja la compra en la estrategia de Cisco?, y 3) ¿dice algo el episodio acerca del estado del mercado?

Permitanme presumir de que este blog visitó AppDynamics en 2014. Su especialidad es ese nicho de mercado que es conocido por la sigla APM [Application Perfomance Monitoring], que analiza el rendimiento ´de extremo a extremo` de las aplicaciones. Además de New Relic, compite con Dynatrace (segregada de Compuware), aunque hay en el mercado otras herramientas más o menos adyacentes.

Promemoria: AppDynamics fue fundada en 2008 por Jyoti Bansal y desde entonces ha sido respaldado por cuatro fondos de inversión que, en septiembre de 2015, ficharon como CEO a David Wadhwani [ex Adobe] con la encomienda de preparar una salida a bolsa.

En los nueve primeros meses de 2016, AppDynamics ingresó 158 millones de dólares [un 54% de incremento] y perdió 95 millones [3% más], lo que permite suponer que al cierre del año habrá facturado algo más de 200 millones y perdido algo más de 100 millones. En el mejor de los casos, es una de esas innumerables compañías de software que crecen con rapidez porque se dan las condiciones para ello, pero no destacan por su disciplina financiera.

En estas condiciones, no hay duda de que la prima aceptada por Cisco es excesiva. Sus razones tendrá para asumirla y, ante todo, dispone de una liquidez de 71.000 millones de dólares que hace digerible casi cualquier múltiplo. Desde que Chuck Robbins asumió el mando en Cisco, a mediados de 2015, ha hecho una decena de adquisiciones; esta ha sido la más cara, y equivale a casi tanto como lo pagado por las otras nueve.

O sea que AppDynamics aporta a Cisco algo que esta considera valioso. Hasta ahora, Cisco ofrece a sus clientes una monitorización sistemática del estado de sus redes y de los accesos; ahora puede añadir la capacidad de hacer lo mismo con las aplicaciones. Hilton Romanski, chief strategy officer de Cisco lo ha resumido así: “en un mundo multicloud, nuestra capacidad de mantener la calidad de servicio podría no ser visible para los clientes si carecemos de un instrumento para medir el rendimiento de las aplicaciones”.

En arquitecturas híbridas, un número cada vez mayor de aplicaciones se ejecuta en distintas plataformas, ya se trate de un datacenter propio o un proveedor de servicio. Con frecuencia, esas aplicaciones están automáticamente en contacto con el destinatario final, sin que los administradores de sistemas lleguen a percibir a tiempo sus fallos de rendimiento para adoptar medidas correctivas. En este contexto, las herramientas de APM, que en entornos estáticos eran más o menos anecdóticas, adquieren importancia vital.

Tan onerosa adquisición pone de manifiesto que la prioridad estratégica de Robbins es dar un giro a la empresa poniendo en primer plano líneas de negocio como seguridad, colaboración e Internet de las Cosas. La experiencia de Cisco con lo que Romanski llama “el mundo multicloud” está en revisión, tras el efímero apostolado de Zorawar Biri Singh.

Se ha anunciado discretamente que a finales del próximo marzo, Cisco dejará de dar soporte a Intercloud Fabric, una ambiciosa iniciativa de 2014 que buscaba ofrecer servicios de infraestructura cloud prestados por partners con centros de datos alrededor del mundo; el fundamento de esta estrategia era OpenStack, para federar nubes de terceros con las que construir servicios híbridos.

Por razones que ahora no vienen al caso, esa estrategia no llegó a coger altura, pero no por ello Cisco renuncia a su catálogo de productos para que sus clientes y partners puedan montar sus nubes privadas; asimismo, mantiene aparentemente con vida la oferta de ´cloud privada gestionada` fruto de la compra de Metacloud a mediados de 2014. La incorporación de AppDynamics confirmaría que, aunque redimensionada, persiste la voluntad de estar activa en los entornos cloud.

Comoquiera que AppDynamics ha abortado a última hora su salida a bolsa, queda la duda de qué hubiera pasado en caso de concretarla. Probablemente habría sido una más entre las startups de nicho que, tras despertar interés durante un tiempo y gozar de altas valoraciones privadas, acaban perdiendo relevancia cuando salen a bolsa. Lo que no quiere decir que fracasen: son operaciones diseñadas de tal manera que los fundadores e inversores, así como algunos empleados de primera hora, protejen su pellizco. Así es como le han cogido el gusto al juego de inflar valoraciones que no siempre son sostenibles.

Esto parece haber llegado a un punto de inflexión. En 2016, sólo 20 startups tecnológicas salieron a bolsa, la cifra más baja desde 2009. No porque dejaran de aflorar en el paisaje, sino porque los gestores de fondos han comprendido que no siempre la bolsa es el mejor desenlace. Hay empresas tradicionales, con buenas alforjas, que están ansiosas por mostrar a sus accionistas que son capaces de rejuvencer; la cura de moda consiste en la ingesta de vísceras de ´unicornio`.

25 de enero, 2017

La conversación con un colega me ha sugerido este newsletter de hoy. En España tenemos tendencia a identificar a Toshiba como una marca de portátiles y poco más. No deja de ser cierto [conste que escribo este comentario en un Portegé] pero, aparte de estar en repliegue, esta rama de su negocio representa una cuota menor de los ingresos de la diversificada corporación japonesa. El primer capítulo de estos ingresos es la división que agrupa los activos de energía nuclear, una de las peores apuestas que pudo haber hecho: en 2006 compró la estadounidense Westinghouse por 5.300 millones de dólares y en 2015 persistió al adquirir otra compañía de construcción de centrales pero – efecto retardado de la catástrofe de Fukushima – tuvo que amortizar 2.300 millones de su valor en libros. Ni por esas: el pasado diciembre, la compañía reconoció que será necesaria otra amortización de “varios miles de millones” [quizás más de 4.000 millones, según Nikkei]

Está fresco el recuerdo del escándalo de irregularidades contables que costó la cabeza al entonces presidente de la compañía. Tras lo cual esta vendió a Canon su división de electromedicina y, a trancas y a barrancas, enderezó sus cuentas. Lo cierto es que, con ese antecedente, Toshiba es una apestada en los mercados de capitales: sería casi imposible obtener crédito para salir del brete. ¿Solución? Seguir sacrificando activos.

Satoshi Tsunakawa, presidente de Toshiba desde mayo, se reafirma en que la energía nuclear es mejor negocio que la electrónica de consumo, saqueada por la industria china. Raro consuelo, porque no encontraría – ni siquiera en China – quien quisiera comprar la herencia de Westinghouse. La salida menos mala apunta a la venta de su división más rentable, la de semiconductores, que aporta el 70% de los beneficios totales del grupo pero seguirá requiriendo inyecciones de capital para mantenerse en un mercado. Su principal fuente de ingresos son las memorias NAND, que confieren a Toshiba la segunda posición (20%) en un mercado liderado por Samsung (35%).

Aquí es donde la situación conecta con los intereses de este blog y, eso creo, de sus lectores. Cuando hablamos de memorias en genérico, hay que distinguir tres bloques, encabezados respectivamente por Samsung, Micron/Intel, y Toshiba/SK Hynix. En un paisaje como este, cualquier movimiento suscita la idea de consolidación. Para unos, esta sería positiva; para otros, dispararía temores geopolíticos. Veamos.

Sostiene Goldman Sachs que, sin el atractivo de su negocio de chips, el valor de mercado de Toshiba se vendría abajo. Por lo que le aconseja no vender más del 30%, para recibir algo así como 3.000 millones de dólares que serían preciosos dadas las circunstancias. No es tan sencillo: a priori, el mejor candidato sería Western Digital, pero está financieramente exhausta tras comprar SanDisk y, lo más grave, podría encontrarse con el veto antitrust.

Habría, tal vez, un puente para sortear el escollo: los fondos de capital Bain y Permira parecen interesados en asociarse con Toshiba y más adelante, podrían revender los activos adquiridos, dado que ese mercado está boyante. Considérese que incluso en medio de sus perturbaciones, Toshiba ha aumentado un 12% sus ingresos por venta de memorias.

En Japón se preferiría una fórmula nacional. Los bancos acreedores han decidido no asfixiar a Toshiba, dándole tiempo a encontrar una salida antes del cierre de su año fiscal, en marzo. Quizás Canon podría acudir otra vez al rescate: junto con Toshiba tiene en desarrollo una tecnología de fabricación de memorias usando nanoimpresión, y espera que estará en producción en 2018. Juntas, Toshiba y Canon podrían anticiparse a la coreana SK Hynix que sigue la misma línea. Pero, por otro lado, Toshiba y SK Hynix tienen un acuerdo de colaboración a largo plazo. Así que, quién sabe.

Como telón de fondo, la infaltable hipótesis china. La empresa para estatal Tsinghua Unigroup, manifiesta intenciones de invertir en la producción de memorias, como parte de un esfuerzo por dotar al país de una industria de semiconductores que considera como materia de soberanía. El resto de los competidores ven con aprensión la posibilidad de que – a falta de otra salida – Toshiba se resigne a asociarse con Tsinghua, que intentó infructuosamente invertir en Western Digital, pero tiene un acuerdo de cooperación con Intel.

La situación del mercado global de memorias es cambiante. Nunca ha sido mayor la escasez de memorias NAND, y se predice que lo mismo ocurrirá dentro de unos meses con las DRAM. En ambas categorías, la producción se ha concentrado en pocas manos, y la aparición de la tecnología 3D NAND ha provocado confusión en los los planes de todos. La situación podría sufrir un vuelvo con la entrada en producción de nuevas capacidades en China. La empresa paraestatal Tsinghua dice tener planes para invertir 24.000 millones de dólares en una nueva planta que produciría DRAM y NAND en Nanjing (China).

23 de enero, 2017

Virginia Rometty, que desde 2012 acumula los cargos de chairwoman, CEO y presidente de IBM, ha estado en el candelero las últimas semanas. En diciembre, se desmarcó de sus pares de la industria, circunspectos ante el inminente cambio en la Casa Blanca. Antes de peregrinar como casi todos a las alturas de la Trump Tower, hizo llegar al presidente electo sus ideas sobre cómo la nueva administración debería facilitar la contratación de personal (estadounidense) por las empresas de TI, precisando que IBM estaría dispuesta a crear 50.000 puestos de trabajo en cuatro años. Buen drive para una jugadora – dicen que bastante buena – de golf. En enero, llevó la bola al bunker de Davos: contradijo al propio World Economic Forum, sosteniendo la inverosímil tesis de que la inteligencia artificial creará empleos en lugar de suprimirlos.

Estas apariciones estelares no servirían de mucho si no las respaldaran unos buenos resultados económicos de IBM. Rometty no asistió a la conferencia con analistas, dejando al CFO Martin Schroeter la tarea de presentar las cuentas del cuarto trimestre, último del año fiscal 2016. Las cifras de ingresos y beneficios han superado las mejores pronósticos de los analistas y, además, Schroeter mejoró sus previsiones anteriores para 2017. Inmediatamente después, la acción de IBM sería premiada con un ascenso que no vivía desde julio de 2015.

El despiece de las cuentas del 2016 merece un análisis de algunos pormenores. Como en cualquier compañía, los resultados ponen por delante lo que conviene desvelar y disimulan lo que no. Para empezar, tanto los ingresos como los beneficios evidencian que IBM es una empresa cada año más pequeña: los 79.900 millones de dólares facturados en 2016 equivalen a tres cuartas partes de los que obtuvo en 2012, el primer año con Rometty al mando. En igual proporción, el beneficio neto, 12.800 millones de dólares, es inferior a los 16.600 millones de entonces.

Los ingresos de IBM llevan cayendo diecinueve trimestres. No hay razón para alarmarse, advierte Schroeter, y tiene razón: el achicamiento se debe básicamente, a las desinversiones de los últimos años [la última, la venta de los servidores x86 a Lenovo], a las que habría que añadir las fluctuaciones cambiarias. Si se ajusta el perímetro, el declive de 2016 sería de sólo el 1,7%. O del 0,7% al corregir el efecto monetario. Mensaje recibido.

En realidad, como muestra el gráfico siguiente, el achicamiento de IBM no es lo único importante. Si uno quiere tener contentos a los accionistas, lo que debe hacer es pagar por su fidelidad, y para esto existe una fórmula irresistible: recomprar acciones propias y mantener en alza el dividendo. El último dato disponible indica que el número de acciones en el mercado ha caído hasta 950 millones [multiplicadas por los 170 dólares del viernes, dan una capitalización bursátil de 162.000 millones de dólares]; en cuanto al dividendo, no ha cesado de aumentar desde que Rometty es CEO (y antes, con Sam Palmisano]

En 2016, IBM dedicó 8.800 millones de dólares – el 11% de sus ingresos – a remunerar a sus accionistas: 5.300 millones en dividendos y 3.500 millones en recompra de acciones. Ya sé que algunos piensan que se trata de argucias financieras. Echemos juntos, pues, una mirada al negocio.

La estrategia seguida por el tándem Rometty-Schroeter ha consistido en dar prioridad a cinco áreas de negocio que, en inglés, se desglosan como 1) analytics, 2) cloud, 3) mobile, 4) security y 5) social. En ellas deberíais fijaros, recomendó Schroeter a los analistas invitados a la call. Dicho y hecho: analytics creció un 9% [19.500 milones], cloud un 35% [13.700 millones], mobile también 35% [4.100 millones], security menos, un 14% [2,000 millones] y social, el capítulo menor, descendió un 10% [1.000 millones]. Los ingresos generados por estas cinco áreas suman 32.800 millones, y representan el 41% del total de la compañía.

En la conferencia, Schroeter insistió mucho en que el mercado debería prestar atención a estas cinco áreas, que en el metalenguaje de IBM son los “imperativos estratégicos”, y en 2020 deberían representar el 55% de los ingresos totales de IBM, que una proyección oficiosa estima en 85.600 millones. Este supuesto implica un crecimiento descendente: desde el 11% este año hasta el 8% en 2020. Al mismo tiempo, los ingresos de las áreas tradicionales “no imperativas” irían a la baja al ritmo del 5% anual.

En la práctica, las cinco áreas mencionadas – particularmente analytics y cloud – incluyen ciertos negocios tradicionales junto con otros recientes, por lo que se propone un desglose más revelador centrado en soluciones cognitivas y plataforma cloud, estrellas vigentes que deberían ser las primeras fuentes de crecimiento y dictar las prioridades de inversión en los próximos años.

Cada vez que tienen ocasión, los directivos de IBM predican las soluciones cognitivas, cuyo gran escaparate es Watson. En realidad, esta línea de negocio incluye productos de la vieja escuela, pero no hay modo de obtener un desglose más preciso. Sólo que Rometty ha prometido que Watson representará en 2024 unos 10.000 millones de dólares de facturación. Claro que, para esa fecha, la actual CEO se habrá retirado.

La analista Kathy Huberthy, de Morgan Stanley trató de presionar al CFO de IBM: ¿cuál ha sido la contribución de Watson a los ingresos de 2016?. Pero Huberthy pinchó en hueso: Schroeter le dedicó esta réplica: “Watson está firmemente, firmemente [redundó] establecido como el ´hilo de plata` que atraviesa nuestras soluciones cognitivas y su influencia se puede ver en varias de las áreas estratégicas […]” No hay que esperar próximamente una cifra asociada explícitamente a Watson, pero – según el CFO – lo relevantes es que IBM está “usando nuestro caudal de conocimientos para construir soluciones verticales y entrenar a Watson en dominios específicos. Lo que [nuestros clientes] esperan es más y mejores datos, algoritmos que automaticen la solución a sus problemas reales”. Lo dicho: la acción de IBM está a 170 dólares, uno de los niveles más altos de los últimos cinco años.

19 de enero, 2017

Cuando el río suena… El adagio, tantas veces fallido, se ha cumplido esta vez: el martes se anunció que Hewlett-Packard Enterprise (HPE) ha cerrado el acuerdo para adquirir Simplivity, por la que pagará 650 millones de dólares. La sorpresa no está en la compra, de la que se hablaba desde hace tiempo, sino en el precio, notablemente bajo. En su cuarta ronda de financiación, Simplivity recaudó 175 millones de dólares, que proyectaban una valoración de 1.000 millones, y los rumores añadían la disposición de HPE a desembolsar una cifra cuatro veces mayor: 3.900 millones.

Tal vez aquella expectativa estuviera influída por la salida a bolsa de Nutanix, cuyo valor se ha duplicado desde la salida a bolsa [4.200 millones de capitalización], Lo cierto es que HPE ha conseguido una rebaja sustancial . ¿Por qué? Una conclusión posible es que los inversores en Simplivityse habrán convencido de que no van a recibir ofertas más altas: el total que han desembolsado en seis años ha sido de 350 millones, de modo que la plusvalía no está a la altura de la que han obtenido otros ´unicornios`. O que no están maduras las condiciones para salir a cotizar.

Intuyo que Doron Kempel, fundador de Simplivity – un tipo arrollador y competitivo – debe experimentar una cierta frustración. Cuando le entrevisté, se las arregló para no responder la pregunta sobre una eventual oferta de la que ya entonces se hablaba. A cambio, me contó que en 2008 vendió su primera empresa, Diligent [deduplicación de datos], bajo la presión de sus socios israelíes, más dispuestos que él a aceptar los 200 millones de IBM. Esta vez, ha dicho que “unirnos a HPE era un paso lógico para la solución de TI híbrida que buscan nuestros clientes”.

Queda la sensación de que la hiperconvergencia puede no tener tanto recorrido como se esperaba, al menos para las startups que abrieron el camino. La idea de combinar en un mismo sistema servidores, almacenamiento y networking, recortar costes y acercar la facilidad de un datacenter a las prestaciones cloud, da para alimentar un mercado de 2.400 millones de dólares en 2016 que, a una ratio del 25% anual, podría llegar a 6.000 millones en 2020. Pero hay serias dudas de que este segmento relativamente pequeño pueda prosperar como alternativa a los grandes proveedores de infraestructuras. De hecho, el líder del mercado es Dell EMC, que se apoya en Nutanix, lo que quiere decir que Nutanix será sostenible mientras pueda contar con Dell EMC.

La obsesión de Kempel ha sido comparar Simplivity con Nutanix, pero al final ha descartado una futura OPV. Por el lado de HPE, el análisis tiene más matices. Aparte de los piropos de manual [best-in-class / industry-leading], Antonio Neri, VP Ejecutivo de su Enterprise Group, ha afirmado que la compra de Simplivity dará un vuelco al mercado de la hiperconvergencia y robustecerá la oferta de datacenter definido por software de su compañía: “tenemos por delante una hoja de ruta excitante para nuestros appliances hiperconvergentes, para Synergy y 3Par en los próximos doce meses”.

Según Neri, “esencialmente, las empresas quieren tener en casa una experiencia cloud, en velocidad, costes y facilidad, sin sacrificar el control ni la seguridad: la tecnología de Simplivity está diseñada con base en estos criterios”. Un aliciente adicional para la oferta de compra ha sido el interés en evitar (a un precio asequible) que Simplivity pudiera echarse en brazos de uno de sus competidores. A ese precio, no faltarían ofertas.

El caso es que HPE y Simplivity casi no tenían relaciones contractuales, pero la oferta hiperconvergente de la primera – derivada de la compra de LeftHand en 2008 – anda necesitando una renovación. Según se ha dicho, la compra de Simplivity no sustituirá la actual gama CS200. Sin embargo, una nueva familia cuya cabeza será el appliance H 380, que fusionará las tecnologías de ambas procedencias, estará disponible 60 días después de consumada la integración de Simplivity en HPE.

Una incógnita del momento es qué hará Cisco ante este panorama. ¿Será suficiente con su producto Hyperflex, consistente en combinar servidores UCS con el almacenamiento definido por software, que ha desarrollado en común con Springpath? Podría tirar de chequera para comprar alguna compañía mucho menos crecidita que no tendría más opciones que seguir los pasos de Kempel. Habrá que estar atentos.

16 de enero, 2017

Estas primeras semanas del año son propicias a los buenos propósitos, y bien sabemos cuántas de esas intenciones se han frustrado, y vuelven a plantearse el año siguiente. Yo mismo me propongo cada año reducir el número de horas que dedico a este blog, pero aquí me tienen, y no sé si en 2017 lo conseguiré.

Hay costumbres arraigadas. Una cada vez más extendida hace que numerosas empresas nos bombardeen con notas de prensa [el nefasto branded content] en las que formulan 5 o 10 predicciones [he recibido una con siete predicciones y media] y que invariablemente arriman el ascua a su sardina, para demostrar que están en la cresta de la ola. El optimismo corporativo forzado esteriliza el ejercicio.

Predicciones, previsiones, pronósticos… hay de todo. Por estas fechas se acentúa una pulsión futurista que induce a los medios más respetables a publicar disparates sin fundamento científico alguno, con los que creen captar a una audiencia joven. Por no hablar de las sesgadas coberturas que se han publicado sobre el CES de Las Vegas, que omiten precisamente la escasez de novedades y el estancamiento del mercado de electrónica de consumo.

No se me malinterprete: un día de diciembre escribí a los magos de oriente pidiéndoles que 2017 sea un año magnífico para la industria de las TI. Por la cuenta que me tiene, porque de ella vivo. Tengo que dejar constancia de que los primeros informes de consultoras me han devuelto la fe en Melchor, Gaspar y Baltasar: me han dicho que el PIB mundial podría crecer un 3,4% en 2017, tres décimas más que el 3,2% estimado para 2016. Y esto es, sin duda, una buena noticia.

Por supuesto, podría tener una lista de motivos para la incertidumbre, pero ya que por fin hay un buen dato para animar el año, ¿por qué chafarlo? Los analistas de Gartner afirman que “en 2017 veremos un resurgir del gasto mundial en TI. Algunas tendencias fundamentales están convergiendo [cloud, blockchain, inteligencia artificial, digitalización de los negocios] apuntalando la hipótesis según la cual el gasto global en TI será este año de 3,5 billones de dólares, un crecimiento del 2,7%”, escribe John David-Lovelock, VP de esta consultora. A renglón seguido aconseja ´esperar a ver` cómo evoluciona el contexto político. Pero aun así, si se cumpliera la hipótesis de Lovelock, en 2017 el mercado daría un salto con respecto a 2016, año en el que Gartner ha calculado – provisionalmente – un descenso del 0,6%.

Escribe Lovelock que “el rango entre el crecimiento más alto y el más bajo es más amplio que en los años anteriores. Normalmente, el entorno económico es la causa de diferencias de comportamiento entre categorías; este año, será clave observar el grado de incertidumbre política. Por ahora, vemos una diferencia clara a favor de las empresas que van a gastar más y las que van a retraerse”.

Cita Lovelock el avance de las plataformas cloud de Amazon, Microsoft y Google, que está impulsando la previsión de demanda de servidores, que en 2017 crecería un 5,6%, y que corregida por el declive del segmento de almacenamiento, daría como saldo un 2,6% positivo en la inversión en infraestructura de datacenter [175.000 millones de dólares] en vez del 0,6% con el que se habría cerrado 2016.

El desglose por categorías – sigo con Gartner – atribuye la cota más alta de crecimiento al software para empresas [6,8%] tras el 5,9% de 2016 y, en principio, debería repetir en 2018 con un 7%. Los servicios TI crecerán un 4,2% hasta 938.000 millones de dólares. La gran diferencia de comportamiento entre 2016 y 2017 reside en las compras de dispositivos, que el año pasado declinaron un 8,9% y este año serán planas. Otro elemento que destaca son los servicios de comunicaciones [40,6% del gasto total] que pasarán de bajar el 1,0% a subir el 1,7%.

Los analistas de Forrester Research ha hecho un esfuerzo por ser lo más precisos que se puede, en estas circunstancias. El gasto mundial en TI – de empresas y gobiernos, sin contar los consumidores – crecería este año un 3,2%, que resulta ser inferior al 3,6% de su previsión anterior. El recorte lo explican porque la original daba por supuesta la continuidad demócrata en la Casa Blanca, pero la victoria de Donald Trump “ha introducido cambios significativos pero todavía no verificables en la economía estadounidense y mundial”. Ya tenemos algo en qué pensar.

21 de diciembre, 2016

No hay más que ver las caras de los asistentes a la reunión entre Donald Trump y las primeras espadas de la industria tecnológica. La conclusión es que se trató de un paripé, diseñado para dar una imagen conciliatoria tras los exabruptos de la campaña electoral. Por no haber, no hubo siquiera una versión oficiosa de lo conversado, salvo que el presidente electo recibió a sus visitantes llamándoles “un grupo de gente admirable”. La agenda era previsible: desde las relaciones con China hasta la educación, pasando por la fiscalidad, las visas H-1B y la ciberseguridad, pero se ha mantenido la confidencialidad. Dejaré este asunto para la primera crónica de enero, muy próxima a la toma de posesión del nuevo presidente.

Hoy sólo quiero adelantar un aspecto de la cuestión. Desde la sorpresa del 8 de noviembre, las bolsas estadounidenses han vivido una fase que tiene nombre: Trump rally – el índice S&P no había tenido un diciembre mejor en los últimos 30 años – inspirado aparentemente por la creencia en que el equipo de Trump, trufado de jerarcas de Goldman Sachs – iniciará una política de desregulación en sectores como el financiero o el energético, que como consecuencia han ganado protagonismo en las bolsas durante las últimas semanas. En cambio, las acciones tecnológicas lo han perdido.

El S&P, como digo, ha subido un 6% desde las elecciones; el Dow Jones alcanzaba ayer, por primera vez, el listón de los 20.000 puntos. Cuatro acciones de compañías poco o nada entusiastas con el nuevo régimen han pasado al pelotón de rezagados en este rally. Es cierto que Apple se ha valorizado casi un 4% [por tanto, menos que los índices] y Alphabet más o menos lo mismo. Otras han sufrido un descenso de sus cotizaciones. Facebook ha caído un 3% y Amazon ha perdido el 1,7% de su valor bursátil, cuando a principios de octubre estaba en máximos históricos.

Es lógico preguntarse por qué estas acciones no han acompañado el rally generado por la elección de Trump. ¿Son razones genuinas, atribuibles a la marcha de sus negocios, o es que los inversores temen que el contexto político que viene no les será favorable? Lo que está claro, para empezar, es que los inversores tienen otras alternativas de rendimiento a la vista, y se han dejado impresionar por los puyazos del Trump candidato al sector (y al revés, en ciertos asuntos). El único aspecto de la agenda económica del Trump presidente será bien recibida es la repatriación de la tesorería aparcada fuera de Estados Unidos.

Este parece ser el principal motivo por el que Apple destaca, pese a que 2016 no ha sido un año propicio, y se teme que los resultados del cuarto trimestre sean mediocres. En sentido contrario pueden haber actuado los temores a que Apple acabe siendo la primera víctima propiciatoria de la mentalidad proteccionista y de una guerra comercial con China.

Según los medios económicos de Estados Unidos, los inversores tienen una visión ´mixta` acerca de las relaciones de Alphabet con la nueva Casa Blanca, después de que Eric Schmidt fuera una especie de asesor áulico de Barack Obama. Según lo poco que ha trascendido, en el encuentro de la Trump Tower, Larry Page sólo abrió la boca para pedir que se mantenga el sistema de visados para trabajadores extranjeros cualificados [muchos de ellos entrenados en universidades donde son reclutados por Alphabet y otras empresas del sector; al fin y al cabo, el cofundador de Google, Sergey Brin es un inmigrante de origen ruso].

Facebook puede ser un caso especial. Su acción empezó a caer a finales de octubre, cuando llevaba un 25% de subida en el año. Los errores repetidos con la métrica de la publicidad en vídeo y la errática política ante las noticias falsas [que, en general, han favorecido la campaña de Trump] han puesto el foco en aspectos negativos que Facebook quisiera olvidar. Pero, sobre todo, quisiera que Trump olvide la antipatía que le guardan Mark Zuckerberg y Sheryl Sandberg, que representó a la compañía en la reunión. Pero estos tienen un amigo a quien recurrir: Peter Thiel, que ha apoyado a Trump, es miembro del consejo de Facebook.

Lo mismo ocurre con Amazon. Durante la campaña, Donald Trump sugirió que merecería ser investigada por las autoridades, a lo que Jeff Bezos replicó con humor [ahora se ve que inoportuno] ofreciéndole una plaza en un vuelo fuera de la atmósfera terrestre. Un factor indirecto, para nada subjetivo, es el hecho de que Bezos es propietario a título personal del Washington Post, y Trump es de los que piensan que los medios deberían bailar al son de sus ocurrencias.

El año se acaba, y los analistas discuten si la fiebre decembrina será coyuntural o duradera. Según algunos, la promesa republicana de rebajar del 24 al 16,5% el tributo sobre ganancias de capital hará que quienes tomaron posiciones en las últimas semanas posterguen la venta de las acciones adquiridas. Se daría así un caso inverso al tradicional January effect, por el que normalmente se vende a finales de diciembre para reconstruir las carteras en enero, por razones fiscales. En pocas palabras: una reforma impositiva favorable al establishment era la receta que Donald Trump ocultaba a sus votantes. Dudo mucho que Apple, Alphabet, Facebook y Amazon, capitalistas de nuevo cuño, vayan a criticarle por ello.

16 de diciembre, 2016

Con la aprobación final de la Comisión Europea, sujeta a condiciones, Microsoft ha podido cerrar definitivamente la absorción de LinkedIn, pactada en junio al bonito precio de 26.000 millones de dólares, la adquisición más cara de su historia, que duplica la cifra pagada en 2012 por la división de móviles de Nokia. La diferencia es que en el caso presente la transacción ha sido bien recibida por los inversores.

Como ya había recibido la luz verde en Estados Unidos, Canadá y otros países, no quedan obstáculos para una integración que los equipos de ambas compañías han venido preparando durante los últimos meses: las identidades y la red de LinkedIn se acoplarán de inmediato con la suite Office y con Outlook. El interés de Microsoft en la red social profesional no se detiene ahí, pero su CEO, Satya Nadella, parece dispuesto a no enajenarse la buena voluntad de los usuarios de LinkedIn, escarmentado por la torpeza de su antecesor en la digestión de Skype. En privado, fuentes de la compañía prefieren citar como modelos a seguir las compras de Instagram y WhatsApp por Facebook [un argumento discutible, porque Facebook ha tardado años en apoderarse de los datos de los usuarios de sus filiales, cosa que Microsoft lo hará desde el primer día].

La primera decisión de Microsoft ha consistido en cerrar el paso a cualquier conjetura y mantener el empleo de Jeff Weiner, hasta ahora CEO de LinkedIn y, por cierto, muy popular entre sus empleados. Esto tampoco quiere decir gran cosa: otros en circunstancias similares se han quedado el tiempo justo para gozar de contratos blindados – normalmente dos años – y luego abandonar Microsoft sin hacer ruido.

Lo realmente importante es que LinkedIn sólo será independiente de cara a la galería: sus resultados serán consolidados con los de la unidad de negocio de Productividad, que depende de Scott Guthrie, protegido de Nadella. Por esto, la prueba del algodón serán los resultados financieros. En los últimos doce meses hasta septiembre, LinkedIn registró ingresos de 3.614 millones de dólares y pérdidas de 202 millones. Ahora viene la peor parte: justificar los 26.000 millones pagados, un precio que ha podido estar inflado por la necesidad de derrotar a Salesforce, que había hecho una oferta inferior.

Se ha comentado que Steve Ballmer ya tuvo a principios de esta década la tentación de comprar LinkedIn, pero el fundador de esta, Reid Hoffman y los inversores que le han respaldado, pensaron que sería mejor dejar pasar la oportunidad. La espera les ha hecho aún más ricos.

Ya habrá ocasión de analizar la marcha de la integración. De momento, es mucho más entretenido fijarse en un daño colateral que Nadella ha asumido conscientemente: la compra de LinkedIn ha provocado la ruptura de sus relaciones con Marc Benioff, fundador y CEO de Salesforce, con quien parecía haber congeniado.

Salesforce ha sido muy insistente en que la CE debía bloquear, o al menos condicionar, la operación. A la vista de que ha sido autorizada sin muchos contratiempos, ahora promete vigilar que se cumpla una condición explícitamente aceptada por Microsoft: los competidores tendrán acceso a los datos de LinkedIn para desarrollar sus acciones de venta o integrarlos en sus propias plataformas.

“Dados los antecedentes de Microsoft como monopolista, hemos pedido que las autoridades verifiquen de manera fehaciente que no se vale de su propiedad para asfixiar la competencia. En tiempos en que la inteligencia artificial, machine learning y otras tecnologías son cruciales, es fundamental asegurar que nadie pueda ejercer una exclusividad sobre los datos de los usuarios”, advierte una declaración formal de Salesforce.

Durante años, Benioff fue un crítico pertinaz de Microsoft, pero cuando Nadella reemplazó a Steve Ballmer, en enero de 2014, el nuevo CEO se declaró dispuesto a cooperar con el resto de la industria. En mayo de aquel año, las dos compañías anunciaron un acuerdo de soporte recíproco a sus productos: aunque seguirían compitiendo en el mercado de CRM, los usuarios de Windows y Windows Phone tendrían acceso directo a la plataforma de Salesforce, y esta sería compatible con Office 365.

Hasta que a mediados de 2015 corrió el rumor de que Microsoft habría explorado la compra de Salesforce, circunstancia que nunca comentaron en público. Llegado octubre, Nadella fue invitado a hablar ante la conferencia Dreamforce, pero Benioff dice (lo dijo el mes pasado) que por las mismas fechas se reunió con Scott Guthrie y ambos esbozaron la idea de que Salesforce se uniera a la plataforma Azure. Poco después, Guthrie se hizo cargo de Dynamics, el producto CRM de Microsoft, y Benioff sospechó que el encuentro había sido un subterfugio para sonsacarle detalles estratégicos.

El fundador de Salesforce se queja de haber sido engañado por Nadella: no ve ninguna diferencia entre la “nueva” y la “vieja” Microsoft. Y lo explica así: “quienes estaban en la segunda línea detrás de Ballmer han subido al primer plano, y aplican los mismos trucos que aquél”. Aduce como prueba unas palabras de Guthrie ante analistas de Deutsche Bank, el pasado septiembre: “la compra de LinkedIn nos permitirá crear una herramienta de ventas imbatible, con la que ningún otro vendedor podrá competir”. Fuera por esta u otra razón, Salesforce se decantó por Amazon Web Services, en lugar de Azure.

Cambio de tercio. Mientras ambas compañías negociaban por separado con Weiner la posible compraventa, este les garantizó el acceso a los datos de LinkedIn a través de una herramienta llamada Sales Navigator. La continuidad de esa garantía es una de las condiciones fijadas por la CE para aprobar la compra, pero Microsoft se había adelantado preventivamente al asegurar que, cuando LinkedIn fuera suya, Sales Navigator estaría a disposición de terceros a través de un widget.

Resulta llamativo que Salesforce no presentara objeciones ante las autoridades estadounidenses sobre la compra de LinkedIn por Microsoft y, en cambio, pidiera el bloqueo en Europa. Finalmente, la Comisión ha fijado una condición que tendrá vigencia en su espacio económico: Microsoft dará a los fabricantes de PC la opción de habilitar o no dentro de Windows la instalación por defecto de la aplicación de LinkedIn. Adicionalmente, no podrá discriminar a ningún fabricante que quiera preinstalar el software de un competidor de LinkedIn.

15 de diciembre, 2016

El Barcelona Supercomputing Center (BSC) de Barcelona tendrá su nuevo superordenador. Se llamará Mare Nostrum 4, siguiendo la línea dinástica de sus predecesores. Sería vano (además de prematuro) incurrir en el vicio de ubicarlo en el ranking de los Top 500, en el que la actual generación ocupa el puesto 129º. El primero de la serie, instalado en 2004, tenía capacidad de cálculo de 42,35 Teraflops, que con la actualización de 2012 alcanzó 1,1 Petaflops. El próximo la elevará a 13,7 Petaflops.

Dejo para el año entrante la conveniencia de una crónica sobre el Mare Nostrum 4. Bastará con decir que el suministrador de los tres anteriores, IBM, es adjudicataria del cuarto, esta vez acompañada por Lenovo y Fujitsu como responsables de elementos de su configuración. Si hoy me adelanto es porque al recibir el anuncio me he llevado una sorpresa: no había caído en que Lenovo es el fabricante número dos en cantidad de máquinas del ranking Top500 [y número uno en China, por cierto].

Cuando Lenovo compró en 2014 la división de Sistemas X de IBM, por la que pagó 2.300 millones de dólares, todas las miradas se fijaron en los servidores x86 como razón de la adquisición. Y era así, pero junto con estos activos, la parte compradora se quedaba con una porción del negocio de IBM en HPC [High Performance Computing], basada en procesadores Xeon. Una tajada no desdeñable, como se ha visto después.

La suma de las dos compañías en ese mercado específico representaba por entonces unos 4.000 millones de dólares, obviamente con aportes dispares. Scott Tease, que fue director de HPC en IBM durante doce años, antes de pasar a ocupar el mismo puesto en Lenovo, reconoce haber pensado que la poderosa imagen de IBM sería una carga difícil de llevar, pero “hoy puedo decir que nos está yendo mejor que si esta división hubiera permanecido dentro de IBM: seguimos ganando contratos en todo el mundo, y nos hemos reforzado en el rango de entre 500.000 y 1 millón de dólares, que no era interesante para IBM pero encaja muy bien en la estrategia global de Lenovo”.

Lenovo no desglosa de sus resultados el segmento HPC, pero está claro que ha salido ganando con la transacción: además de los servidores x86 de propósito general y una franja afín de almacenamiento y middleware, está en condiciones de proponer infraestructura scale-out a grandes empresas.

En la agenda HPC de Lenovo tiene un lugar destacado la competencia con Hewlett-Packard Enterprise (HPE), y hasta se podría decir que esta ha sido una de las razones por las que HPE ha comprado este año SGI. También Dell tiene buenas posiciones en el ranking, y la compra de EMC añade una dosis a su negocio HPC. Se espera una fase de agresividad en las ofertas de estos tres competidores.

En el caso de Lenovo, su mejor escaparate en Europa es Italia, donde ha suministrado tres superordenadores – uno de ellos el más potente del país y número 12 del mundo – al consorcio académico CINECA, y otros dos a la petrolera ENI. En España no tenía hasta ahora ninguno instalado, por lo que el contrato con el BSC es una referencia de cara a su participación en proyectos de la red europea PRACE [Partnership for Advanced Computing in Europe].

El papel de Lenovo en el Mare Nostrum 4 tiene dos partes: un elemento de propósito general, con 48 racks y más de 3.400 nodos, cuya potencia máxima será de 11 Petaflops [11 billones de operaciones por segundo], y otro, un cluster compartido con Fujitsu que incorpora tecnologías que ahora mismo sólo están disponibles en un laboratorio del departamento de Energía de Estados Unidos.

Por otro lado, la participación de Fujitsu en el contrato liderado por IBM tiene otro rasgo excepcional: suministrará, además, otro cluster basado en procesadores ARMv8 de 64 bits, como prototipo de las tecnologías que la compañía implementará en el futuro superordenador japonés Post-K. Con estos elementos, parece plausible concluir que el BSC se propone preparar a sus investigadores para trabajar con la siguiente generación, supuestamente Mare Nostrum 5.

Una de las ventajas que puede argunentar Lenovo en este mercado es que tiene una capacidad de fabricación que IBM nunca tuvo, y ha diseñado su organización para bajar el listón de HPC, orientando sus productos a funciones de simulación, modelización, análisis y machine learning. Tease explicaba en una entrevista la semana pasada: “nuestro pan con mantequilla son los clusters de menos de un millón de dólares, pero contratos como el de CINECA o el del BSC tienen el mérito de demostrar que somos capaces de afrontar retos mayores”.

Las fuentes que he consultado – y que piden no ser nombradas – dicen que se hace cada vez más difícil rentabilizar el negocio HPC. Por un lado, la abundancia de aspirantes fortalece la posición negociadora de los clientes y, por otro, la dinámica de precios característica de los servidores de gama baja se está contagiando a un mercado que no hace mucho parecía protegido en las altas cumbres.

14 de diciembre, 2016

El rumor ha sido recurrente durante el último año, pero esta vez adquiere consistencia porque la fuente es de fiar. Según The Register, Hewlett Packard Enterprise estaría negociando la compra de Simplivity por unos 3.900 millones de dólares. Como es de rigor, las partes implicadas no comentan la información, firmada por Chris Mellor. Si la operación llegara a buen fin, HPE reforzaría su cartera de infraestructura hiperconvergente (HCI) apoderándose del segundo proveedor independiente. Según IDC. Simplivity habría crecido un 110,7% en los últimos doce meses, un ritmo superior al de Nutanix, líder del mercado HCI.

Hasta ahora, al menos de boquilla, HPE ha negado tener necesidad de una adquisición en ese segmento del mercado, por considerar que lo tendría cubierto con su sistema CS200, parte de la estrategia que en el glosario de la compañía se conoce como “infraestructura componible”. En rigor, LeftHand Networks, que la antigua HP compró en 2008, fue pionera de la hiperconvergencia, pero al año siguiente aparecieron, casi simultáneamente, Nutanix y Simplivity, que desde entonces se han repartido el mercado firmando acuerdos con los grandes nombres de la industria.

Según un informe de IDC, el mercado de HCI – appliances que combinan una docena de funciones en torno al almacenamiento de datos – habría generado en el segundo trimestre del año ingresos por 481 millones de dólares [+137,5%]. Una proyección de la misma consultora eleva la cifra a más de 3.000 millones en 2019.

Es, pues, un mercado interesante y, dentro de lo que cabe, predecible. Los ingresos de Simplivity en el tercer trimestre – no publicados, puesto que no cotiza – habrían crecido más rápido que los de Nutanix, pero otra cosa ha cambiado en el paisaje, con la salida a bolsa de Nutanix a finales de septiembre. Su valuación pasó de 2.200 millones de dólares en la última ronda privada, a 3.900 millones de capitalización la semana pasada. Curiosamente, la misma cifra que – según el amigo Chris – costaría a HPE la adquisición de Simplivity.

Doron Kempel, fundador de esta, contaba con poder seguir los pasos de su rival lanzando una OPV, pero la evolución de Nutanix [que cotiza un 39% por debajo del precio de salida] ha enfriado los ánimos de los inversores que respaldan a Kempel. No les sentaría nada mal vender a un precio que cuadruplica el valor teórico que ellos mismos fijaron en la última ronda de financiación de 2015.

Otro elemento de contexto es la competencia. La absorción de EMC por Dell – hasta ahora un partner fiel de Simplivity – puede alterar su oferta. Cisco sigue trabajando con Simplivity, pero últimamente tiende a preferir su acuerdo con Springpath, de la que comercializa el sistema Hyperflex. NetApp, al parecer, está desarrollando el suyo para no quedar fuera de foco. Por otro lado, Lenovo tiene un acuerdo global con Nutanix, mientras Huawei ha desarrollado su alternativa. Así de complicadas se han puesto las cosas para Kempel.

Este antiguo oficial de las fuerzas especiales israelíes [prohibido preguntar por su historial militar] es un personaje avasallador, según pude comprobar al entrevistarle tiempo atrás. Al margen de las respuestas publicadas, tengo grabada esta frase suya: “este tipo de tecnología, no sólo la de Simplivity sino la propia noción de hiperconvergencia, plantea un riesgo existencial a compañías como HPE, EMC, NetApp y Dell, porque se solapa con sus catálogos, con la ventaja de basarse en una arquitectura ´comoditizada` como es la x86, que baja sustancialmente los costes […] Nuestro software puede correr en cualquier servidor, sobre cualquier hipervisor, con cualquier herramienta de gestión o de orquestación y, si así lo prefiere el usuario, en cualquier nube pública”.

Tras las imaginativas operaciones ideadas por Meg Whitman para sacar del balance las divisiones de servicios y software, HPE – a su vez producto de una escisión – será forzosamente más pequeña y concentra sus energías en los sistemas de servidores, almacenamiento y networking. Whitman – un portento a la hora de seducir a los accionistas – sabe que estos van a agradecer que el cash flow se dedique a un fin distinto que pagar indemnizaciones a los miles de empleados despedidos durante sus cinco años como CEO. La adquisición de Simplivity equivaldría, es mi interpretación, a darse un homenaje de aniversario y a la vez empujar un poquito la cotización cuando anuncie los resultados del año fiscal, el próximo martes 22.

12 de diciembre, 2016

Cinco años ha durado la batalla judicial entre Apple y Samsung, y aunque parece haberse escrito el renglón final, no se puede asegurar que no habrá nuevos movimientos en la “guerra termonuclear” declarada por Steve Jobs y prolongada por sus acólitos. Con inusitada celeridad, menos de dos meses, el Tribunal Supremo de Estados Unidos se ha pronunciado por unanimidad con un dictamen que favorece a Samsung, aunque formalmente sólo pretende sentar jurisprudencia y corregir la “errónea” interpretación que de la vetusta ley de patentes ha hecho un tribunal federal.

La trascendencia jurídica del caso radica en que ha sido la primera vez en más de 120 años en que la máxima instancial judicial ha tenido que pronunciarse en un litigio sobre un diseño patentado. Los tiempos han cambiado: la normal legal fue redactada originalmente para proteger los diseños de alfombras que, al parecer, eran profusamente copiados a finales del siglo XIX. Ahora, entrados en el XXI, se trata de dilucidar si la apariencia exterior del iPhone es merecedora de la misma protección. En el fondo, deja abierto el debate sobre los alcances de la innovación, palabra mágica que las dos partes reivindican en defensa de sus posiciones.

En 2011, se caricaturizó la “batalla del rectángulo”: Apple tenía patentado el formato con ángulos redondeados, con y sin borde biselado, de su célebre smartphone así como la grilla de 16 iconos en la pantalla. Esas tres patentes han pasado por varios tribunales antes de llegar a la instancia judicial máxima.

El tópico popular atribuye a Apple como primer mérito la excelencia en sus diseños. Es, creo, la única empresa del sector cuyo diseñador jefe, Jony Ive, ha sido encumbrado a la diestra de Tim Cook como antes lo estuvo con el fundador. Pues bien, el Tribunal Supremo no tiene por qué valorar la calidad del diseño del iPhone. Su sentencia se limita a esclarecer el concepto de “artículo de fabricación” en aquellos productos que, por definición, son multicomponentes [y el iPhone lo es: lleva más de 200 componentes].

La sentencia, redactada por la juez Sonia Sotomayor, ocupa menos de diez páginas, pero puede condensarse en uno de sus párrafos: “la única cuestión sobre la que nos toca decidir es si, en el caso de un producto multicomponente, el ´artículo de fabricación` relevante es siempre el producto final o puede ser también un componente de ese producto”. La diferencia está en que la infracción – ya dirimida en instancias anteriores – debe ser sancionada con una multa calculada sobre los “beneficios totales” [como decía el apartado de la ley pensando en las alfombras] o sólo sobre los generados por los componentes que violan las tres patentes del caso.

La letrada de Samsung ha alegado que un smartphone está ´típicamente` afectado por unas 250.000 patentes que cubren tantas características que el diseño es sólo una mínima parte. Por tanto, argumentó, debería considerarse como ´articulo de fabricación` exclusivamente los componentes protegidos por esas tres patentes. Y dio en el blanco. La sentencia previa obligaba a Samsung a pagar millones de dólares a Apple. SCOTUS [acrónimo por el que se conoce al Supremo] devuelve el caso al tribunal inferior para que la ajuste a su criterio, de lo que se desprendería un nuevo cálculo de la sanción, que lógicamente sería inferior. En teoría, el tribunal federal podría rebatir al Supremo, y esto es precisamente lo que le pedirá Apple que haga.

Tal como están las cosas, es una victoria para Samsung, que anda tan necesitada de buenas noticias. Cuando esta tortuosa historia empezó, Apple reclamaba 2.000 millones de dólares de indemnización y la prohibición de los once modelos de Samsung involucrados. En juicios sucesivos e intentos fallidos de acuerdo la cuantía se ha rebajado a menos de 1.000 millones, luego a 548 millones [cantidad que Samsung ha pagado, por lo que ahora tendría derecho a una recuperación parcial] y por fin los 399 millones que son la última referencia.

Los expertos en patentes se temen [o se alegran, porque ingresarán más honorarios] que la ambigüedad de SCOTUS haya abierto un período de mayor complejidad, en el que los jueces se verán en la tesitura de mover los límites del derecho de patentes para acomodar la evolución constante de las tecnologías. Florian Mueller, por ejemplo, considera que la presión de Apple había llevado las cosas a posiciones extremistas, pero no tiene claro por dónde debería pasar la línea del sentido común en la materia.

Un aspecto entretenido del enredo es la participación de terceras partes. A través del mecanismo de amicus curiae, la Computer & Communications Industry Association (CCIA) hizo llegar al Supremo su apoyo a la posición de Samsung y lo mismo han hecho la Software and Information Industry Association, así como pesos pesados de la industria [entre ellos Google, Facebook, Dell, HP, Lenovo,etc]

En apoyo de Apple se han alineado otros testimonios voluntarios: un centenar de diseñadores y profesores de diseño [el detalle anecdótico es la firma de Calvin Klein, cuyos tejanos se asocian con la imagen de Jobs] incluído el arquitecto Norman Foster, amigo personal de Jony Ive. En el mismo sentido se han pronunciado varias empresas que se caracterizan por vender productos que dependen de una sola patente o cuyo precio está en relación directa con el diseño. La composición de los dos bandos revela dos maneras de concebir – y de proteger – la innovación.

9 de diciembre, 2016

¿Han notado que se publican menos noticias sobre conflictos en torno a la regulación de las telecomunicaciones? Una multa al operador aquí, una colleja a su competidor allá, poco más. Como si nos hubiéramos saciado con el embrollo del roaming, que ya es difícil saber en qué estado se encuentra. Pero hay conflictos, claro que los hay, algunos de profundidad. Como prueba, el reciente consejo de ministros europeos, marcado por la controversia ante la propuesta del comisario Gunther Oettinger de reconvertir el BEREC, órgano colectivo de coordinación entre reguladores nacionales, en una agencia única tutelada por la Comisión. No es un buen momento para irritar las soberanías nacionales, pero es de lo mejor que se le ha ocurrido al comisario alemán.

Tanto el BEREC como los 28 reguladores miembros ya habían expresado su oposición al proyecto, pero la última noticia es que la mayoría de los ministros del ramo, reunidos el 2 de diciembre, comparte sus objeciones contra lo que ven como una innecesaria centralización. Con discusiones bizantinas como esta, no es de extrañar que Europa pierda peso en el mercado global, que los operadores retraigan sus inversiones y que las OTT campen a sus anchas.

No es la primera vez que el BEREC se enfrenta a la CE por este asunto. Su creación en 2009 fue, de hecho, una concesión ante las críticas a un proyecto de agencia única, supuestamente calcada sobre el modelo de la ACER, que regula el sector energético. El leit motiv es el mismo: ¿quién tendría la última palabra en la materia?, ¿Bruselas o los reguladores nacionales? En esta ocasión, Oettinger ha empezado por mostrar la zanahoria y esconder el palo: propone aumentar la dotación presupuestaria con la que apoya al BEREC de 4,2 a 7,5 millones de euros anuales y ampliar de 22 a 60 el número de sus empleados. Se sospecha que el siguiente paso sería trasladar la sede de Riga a Bruselas e instaurar una reunión mensual de reguladores en la capital europea. De paso, la CE tendría facultad para nombrar al director general y dos miembros del comité ejecutivo.

Oettinger, ex protegido de Angela Merkel y reputado bocazas [la ha liado hace poco con alusiones racistas], sugirió que los reguladores deberían ejercer sus competencias “al margen de las influencias económicas y políticas” (sic). Poco después, un miembro de su equipo sopló a un periodista el subtexto de la frase: “el único interés que los mueve [a los reguladores] es el mantenimiento del status quo“.

La reacción ministerial al proyecto ha sido negativa: ni hablar de una agencia única que daría más poder a la Comisión y el poder de vetar las decisiones de los reguladores nacionales. España y Portugal, por cierto, defendieron “el actual equilibrio institucional, cuya eficacia está demostrada”.

Claude, mi fuente en Bruselas, relata que los ministros elogiaron unánimemente “la calidad” del proyecto de reforma presentado por la CE en septiembre, pero la verdad verdadera es que en cuanto al orden del día hubo más discrepancias que acuerdos. La delegación española – se estrenaba el nuevo equipo ministerial – echó mano del tópico que defiende las reglas de competencia como protección a los consumidores [obviando el hecho de que, a diferencia de la CNMC, esa materia tiene en Bruselas otro canal y otra responsable].

La delicada cuestión del espectro sigue provocando divergencias: los ministros son tradicionalmente reacios a alinear sus políticas de asignación de frecuencias. Encabezados por Alemania, Bélgica y Finlandia, dicen no ver qué mejoras añadiría su unificación a escala europea. Algunos insistieron en que la gestión del espectro es una cuestión de seguridad en las relaciones con los vecinos: es lo que dijeron Grecia, Polonia y los países bálticos. Malta, que tiene problemas constantes de interferencia con Italia, invitó a la concordia [normal, ya que le toca presidir la UE durante la primera mitad de 2017].

Oettinger no estaba de ánimo para conciliar. “Si ustedes están satisfechos con el sistema actual, después no se quejen si Europa tarda diez años en su reconversión a 5G; si tienen dudas, pregunten a Nokia o Ericsson lo que piensan”, dijo enfadado.

Hasta aquí, la anécdota. ¿Cuál es el problema de fondo? La fragmentación. La regulación de las telecomunicaciones, y por extensión la vigilancia de la competencia, no consigue adaptarse a la evolución de la tecnología. Mientras se discute en esos términos, WhatsApp y Skype han contribuido decisivamente a que el valor de los operadores europeos perdiera un 20% o más en los últimos años. Pero los reguladores insisten en acentuar reglas que trastornan el cash flow del sector y, en consecuencia, la capacidad de invertir y de competir con unas OTT a las que nadie regula.

Deliberadamente dejo para otro día el recurrente asunto de la neutralidad de las redes, al que el debate europeo no puede ser ajeno. Sólo diré que es probable que la doctrina oficial en la materia se vea alterada por la llegada de Donald Trump a la Casa Blanca y el previsible cambio de composición en la FCC. Hace tres años, cuando Tom Wheeler fue designado para presidir la Comisión Federal de Comunicaciones, el New York Times lo definía como an industry man [por su pasado como lobbista de empresas de cable] pero ha resultado que salió rana: sus supuestos padrinos se quejan ahora de que se ha comportado como un agente del Silicon Valley.

Algunas de las decisiones que Wheeler ha forzado en el organismo, a veces ganadas por 3-2, – que el BEREC ha copiado en sus recomendaciones para Europa – podrían ser revisadas el año entrante. Pero esta es otra historia.

5 de diciembre, 2016

La conferencia Discover, que Hewlett Packard Enterprise celebró en Londres la semana pasada, deparó una buena cantidad de novedades, como es lógico en una empresa que ha decidido recentrar su estrategia como proveedora de infraestructuras para el datacenter. Unas cuantas de esas novedades serán tratadas en otro momento en este blog. Pero ha llamado mi atención el énfasis que la compañía ha puesto en presentarse como un interlocutor necesario en materia de Internet de las Cosas (IoT). El instrumento para ello será una de sus adquisiciones, Aruba Networks, que desde el año pasado se integra en la escuadrilla HPE.

Los últimos movimientos de Meg Whitman, CEO y reinventora constante de HPE, pueden haber creado perplejidad, pero al menos en este asunto, la orientación está trazada. Durante la reciente conferencia con analistas, Whitman se deshizo en autoalabanzas sobre el acierto de la compra de Aruba y las oportunidades que aporta: “queremos ser la IT de IoT”, resumió. Esta apuesta, junto con el ostensible noviazgo que HPE vive con Arista – se especula con una oferta, pero esta sería otra historia en la que hoy no quiero entrar – podría conducir a una confrontación directa más dura con Cisco, a la que se le multiplican los adversarios.

Parte de esa tendencia es la manifiesta autonomía de que ha hecho gala Dominique Orr, CEO de Aruba antes y después de la adquisición. Orr ha dicho tener planes para acelerar las adquisiciones de compañías de software que generen sinergias con HPE. “Quien recorra la historia de Aruba, verá que cada año hemos comprado alguna startup complementaria de nuestra capacidad de I+D. Muchos de los rasgos que nos diferencian proceden de esas adquisiciones, que han reforzado la arquitectura de la plataforma de Aruba. Vamos a insistir en esa línea en los próximos meses”.

Antes de recibir de HPE la oferta de compra por 3.000 millones, que aceptó, la última adquisición pilotada por Orr fue la de Meridian, compañía especializada en software de localización, que rápidamente incorporó a su plataforma. A la vista de la orientación que Aruba mostró en Londres, en su punto de mira debería haber ahora alguna empresa con orientación a IoT.

Según Morten Illum director de ventas de Aruba en Europa, es necesario cambiar el enfoque con el que se piensa en IoT, en el que la conectividad ha sido el único punto de vista, para pasar a verla como la base para crear nuevos servicios monetizables. “Para que IoT sea una fuente importante de ingresos, hay que asegurarse de la lealtad de los usuarios, de su nivel de satisfacción, y mejorar la capacidad de inventar nuevos servicios”

Con ese espíritu, los portavoces de Aruba presentaron la nueva solución ClearPass Universal Profiler, que automáticamente identifica y asigna una huella digital a los dispositivos IoT conectados a redes fijas o inalámbricas en entornos multivendedor (como es normalmente el caso). El propósito es asegurar la red y proteger a los usuarios de las amenazas que pudieran aparecer en puntos de acceso desconocidos. Con esta propuesta, Aruba se abre a entornos en los que no necesariamente se ha instalado su solución ClearPass.

Junto con esa novedad, Aruba mostró un nuevo switch, austeramente llamado 2540, que reduce la latencia en el tránsito de los datos entre la red IoT y el datacenter. Ayudando, según la compañía, a evitar que los dispositivos IoT lleguen a acceder a partes de la red donde pueden estar alojados datos sensibles no relacionados con su función. Al mismo tiempo, Universal Profiller será un añadido para detectar, auditar y caracterizar los dispositivos analizando sus direcciones IP.

Pero el anuncio más significativo, me cuenta un colega que estuvo in situ, puede haber sido MVNE (Mobile Virtual Network Enabler) destinada a facilitar a los proveedores de servicio el provisionamiento, configuración, administración y facturación del tráfico generado por dispositivos inalámbricos conectados a sus redes en múltiples geografías y sujetos a regulaciones cambiantes.

Keerti Melkote, cofundador y CTO de Aruba, ahora VP senior de HPE en la división de networking, explica que las redes WAN, diseñadas para provisionar servicio a teléfonos móviles, requieren entre 30 y 60 minutos como mínimo para provisionar el servicio a un cliente; lo que es admisible con las tarifas aplicadas al tráfico móvil, pero provisionar un dispositivo IoT no podría soportar un coste de 16 dólares. En cambio, Aruba promete que MVNE bajará el coste a 1 dólar por dispositivo. Esto significaría que dispositivos múltiples que comparten recursos celulares, de radio, wifi o Bluetooth, pueden ser gestionados a costes muy bajos, permitiendo un modelo de negocio rentable. Decididamente, el mercado se está haciendo difícil de entender. Seguiré intentándolo.

29 de noviembre, 2016

HP Inc. y Hewlett Packard Enterprise (HPE) viven separadas desde hace un año, pero al presentar sus resultados al mismo tiempo, no pueden evitar que los analistas los comparen en cada trimestre, al menos hasta que una de las dos modifique su año fiscal. La semana pasada, comentando las cuentas del año fiscal 2016, el CEO de HP Inc, Dion Weisler atribuyó los progresos conseguidos a “la velocidad, flexibilidad y foco que ha alcanzado nuestra organización al funcionar como compañía separada”.

Unos días antes, Meg Whitman había ´confesado` en el Analyst Day de HPE, que si las dos compañías fueran una, probablemente no se hubiera acometido la compra de la división de impresoras de Samsung, operación que calificó de brillante, porque sus prioridades de inversión eran otras. He aquí una buena justificación para la escisión: el cash flow generado por una división no necesariamente era invertido para desarrollar esa división.

Pues sí, tal vez todo se deba a la ´velocidad, flexibilidad y foco`, pero Weisler ha tenido la rara ocasión de mostrar unos resultados satisfactorios dentro de lo que cabe: los ingresos del cuarto trimestre han crecido un 2% [y un 4% en moneda constante] y los 12.500 millones de dólares han superado en 600 millones la media esperada por los analistas. Pero, atención: el cierre del año fiscal revela un descenso del 6% [-2% en moneda constante] después de haber descendido un 9,2% en 2015.

Lo más interesante de 2016 ha sido la tendencia ascendente, casi paralela, de los dos negocios que componen HP Inc. En el conjunto del año, el Personal Systems Group vio disminuir sus ingresos un 5%, pero el cuarto trimestre fue positivo en un 4%. Por su lado, los del Printing Group bajaron un 14% en el año pero ´sólo` un 8% en el trimestre. Justo lo que necesitaba Weisler para presumir de ejecución en un entorno de asechanzas: “somos conscientes de que es lo normal ahora – dijo – pero nuestros modelos de análisis predicen una estabilización a finales del próximo año fiscal”. En moneda constante, quede claro.

El negocio de PC, que aporta el 60% de los ingresos totales [pero el 27% del margen operativo] se comportó mejor que el mercado global de la categoría descrito por IDC. A su vez, Printing [que contribuye con el 72% del margen operativo] arrojó un dato interesante por excepcional: incrementó el número de unidades de hardware vendidas. Cathie Lesjak, CFO de la compañía, sugirió a los analistas que deberían entenderlo como una inversión [se supone que cuantas más impresoras se vendan, más consumibles se venderán]. La mala noticia es que los consumibles han sufrido otra caída, esta vez del 12%.

Weisler puso de relieve otras apuestas de la compañía en el mercado de impresión. Creó expectativas con el formato A3, que tendrá su gran lanzamiento el año entrante, y puso como ejemplo las artes gráficas, que llevan trece trimestres de crecimiento consecutivo. No olvidó dar una pincelada sobre la impresión en 3D, un nuevo negocio para el que sigue sumando acuerdos con suministradores de materiales.

En su presentación inicial, Weisler habló mucho más de impresión que de PC, por lo que una analista de Deutsche Bank, le apremió a dar detalles. Obtuvo esta respuesta: “a largo plazo, el mercado de sistemas personales se desarrollará como un continuo de dispositivos, desde los smartphones hasta las workstations, y las líneas divisorias entre categorías se irán difuminando […] Si algo caracteriza a este mercado es el cambio constante, pero tenemos la ventaja de ir por delante de la curva”. Señaló también que HPI tiene mucha cuota por ganar en el segmento de gaming así como en los servicios y accesorios, que están en claro crecimiento.

Las constantes referencias de Lesjak a la conversión en moneda constante reflejan el hecho de que HPI obtiene el 54% de sus ingresos fuera de Estados Unidos, por lo que la evolución alcista del dólar no le favorece. En la región EMEA, el descenso de ingresos en 2016 fue del 8% (o 2% en moneda constante). Algo a tener en cuenta cuando haya que compararlos con los de 2017.

25 de noviembre, 2016

Sólo la ingenuidad, la desinformación o la pereza pueden explicar que se siga llamando “economía colaborativa” [capciosa traducción de sharing economy] a unas prácticas empresariales que de colaboración no tienen nada. Uber y Airbnb, así como sus imitadores, ejercen modelos de negocio lucrativos, que compiten con otros modelos existentes – taxis, hoteles – y se mueven en un vacío legal y fiscal que es la fuente de muchos líos.

Extraoficialmente, Airbnb se plantea salir a bolsa en un plazo de 18 a 24 meses. La última ronda de financiación, en 2015, recaudó 500 millones de dólares sobre la base de una valoración hipotética de 30.000 millones. La cuenta atrás exige tranquilizar a los inversores resolviendo los problemas pendientes con ayuntamientos y reguladores de medio mundo.

Airbnb no tiene por qué publicar sus cuentas, pero deja que circule una estimación según la cual ingresará este año unos 1.600 millones de dólares. Extrapolando la cifra con la comisión media del 10%, se ha calculado un flujo de más de 10.000 millones de dólares al año. Lo suficiente como para que los recaudadores se fijen en Airbnb.

No exactamente en sus ingresos sino en los que procura a los dueños de las viviendas. Es un asunto complejo: Airbnb gestiona viviendas en 34.000 ciudades y localidades heterogéneas. Brian Chesky, cofundador y CEO de la empresa, declaró hace poco al Financial Times que su equipo legal está tratando de cerrar acuerdos con 700 ciudades donde se genera más del 90% de esos ingresos.

Las batallas tributarias con Nueva York y San Francisco son las más duras – reconoce Chesky – pero hay voluntad de negociación por ambas partes. Airbnb ya ha firmado 200 acuerdos con sendas ciudades, por los cuales actúa como agente de retención de tasas locales y las ingresa en las arcas municipales. Un cálculo no oficial – con pinta de ser inducido por la industria hotelera – estima en 440 millones de dólares el monto fuera de control en ciudades de Estados Unidos.

Hasta aquí los datos, pero todo el asunto tiene un cariz político. Por esto, Airbnb fichó hace un año a Chris Lehane como director de política y comunicación global. Su currículo incluye haber sido consejero de prensa de la Casa Blanca en el segundo mandato de Bill Clinton y en la campaña de Al Gore. Suya es la idea de abandonar la rebeldía fiscal inicial y adoptar lo que él llama “modo autodefensa”, cuyo fruto han sido los acuerdos con 200 ciudades. Quedan huesos duros de roer: Nueva York, San Francisco, Barcelona, París y Berlín.

Lehane rechaza la comparación con Uber. “La vivienda es el problema número dos o número tres en la mayoría de las ciudades, cada una con sus rasgos históricos, culturales y políticos. No hay una fórmula única”. Como consultor político que es, dictamina que “en muchas ciudades, cerca de la mitad del electorado está formada por millennials, que están encantados con nuestro modelo”.

Los argumentos a favor son conocidos: incrementan el turismo, permite a los propietarios dar utilidad a espacios desocupados, la tarifa es razonable por un servicio mejor que el de un hotel cutre. También se conocen las objeciones: competencia desleal, subida de los alquileres a los residentes permanentes, especulación inmobiliaria, transformación de espacios comerciales en habitables, picaresca fiscal…

La temporalidad es un punto conflictivo. ¿Cuál es el máximo aceptable para que un apartamento pueda destinarse a este uso sin necesidad de licencia fiscal? En EEUU, normalmente el límite ha estado en 90 días por año, pero se tiende a bajarlo a 60 o menos. En Nueva York – donde Airbnb regenta 20.000 – el municipio ha empezado a multar a propietarios infractores. Para que el modelo funcione sin litigios habría que crear un registro de usuarios y que lo comunique a las autoridades. Tal como hacen los hoteles que no son “colaborativos”.

Suponiendo que los conflictos se resuelvan y que Airbnb se conforma con ser lo que es, un intermediario de arrendamientos, podría dejar de gastar en batallas legales el dinero de sus inversores. Pero Chesky y sus socios quieren ser más que eso, expandirse al mercado del turismo, uno de los motores de negocios en Internet.

Tímidamente, Airbnb se aleja de sus raíces con la creación de Trips, una alternativa al turismo adocenado propio de los tiempos. Ha diseñado 500 ´experiencias` en 12 ciudades [ninguna española] entre las que hay ideas tan curiosas como visitar el taller de un luthier en París, correr una maratón en Nairobi o recoger setas en Florencia. A diferencia del alquiler de viviendas, en el que Airbnb sólo interviene online, Trips requiere inscripción y aprobación previas, además de personal in situ. Por ahora es un experimento que, si saliera bien, podría captar nuevos segmentos del mercado: ¿por qué no alquiler de coches, reserva de vuelos o ´experiencias` gastronómicas? Competir con las agencias online como Expedia o Kayak, vamos.

Los creadores de Airbnb tienen su propio lenguaje. Encandilaron a los medios con el camelo de la economía colaborativa, y ahora pregonan su nueva mercancía con tono mesiánico. Nathan Blecharczyk, cofundador y CTO, lo cuenta así: “un viaje tiene que ser transformacional, hacer que las personas adquieren una visión diferente del mundo y compartan experiencias con sus semejantes”. No faltará quien lo traduzca como “turismo colaborativo”.

23 de noviembre, 2016

Es de agradecer que Chuck Robbins, CEO de Cisco, no recurriera a los clichés exculpatorios de uso habitual en el sector para con ellos disimular los problemas que revelan las cuentas del primer trimestre de su año fiscal 2017. En lugar de ello, Robbins se sinceró con los analistas – y luego con algunos periodistas a quienes atendió por teléfono – al decirles que “en este momento, podría identificar aquí o allá alguna dosis de optimismo [pero en muchos casos] se trataría de inversiones que no nos benefician directamente; en todo el mundo prima una situación de incertidumbre que sin duda tendrá impacto. Podría ser positivo o podría ser más duro”.

Uno de esos factores hoy ambiguos – lo dijo Robbins y lo confirman las noticias de los últimos días – sería la revisión de las reglas de neutralidad de las redes, que podría impulsar la administración Trump. Sobre la perspectiva de que esta facilite la repatriación de fondos que Cisco tiene aparcados fuera de Estados Unidos, la CFO Kelly Kramer dijo que en tal caso el dinero se usaría para reducir el monto de la deuda, posiblemente elevar la autocartera e invertir en inversiones estratégicas. “Reconozco que esa reforma fiscal nos daría mayor flexibilidad”.

Los ingresos de Cisco en el trimestre cerrado a finales de octubre sumaron 12.352 millones de dólares, un incremento del 1% sobre un año antes. En realidad, cayeron nominalmente un 3%, pero si se detraen las desinversiones del año anterior, el saldo pasa a ser positivo.

La gran mancha en los resultados trimestrales ha sido el negocio de switching, que cayó un 7% [3.715 millones], e incluso peor secuencialmente. Se trata de un golpe severo por tratarse del 30% de la facturación total. Los únicos segmentos que han arrojado saldo positivo han sido los routers de nueva generación [un éxito de la plataforma ACI] y la seguridad. Todos los demás cerraron en rojo, incluídos los de colaboración y servidores.

Aunque el CEO aleccionó a los analistas [y a la prensa, me imagino] para que no se deje influir demasiado por los trimestres individuales, el consejo se quedó corto, ya que él mismo pronosticó que en el conjunto del año fiscal [agosto a julio] los ingresos totales sufrirán un retroceso de entre -2% y -4%. Como detalles tranquilizadores, agregó que el cash flow sigue siendo robusto, lo que permitirá recompensar a los accionistas con un aumento del dividendo.

Actualmente, el mayor riesgo radica en la desaceleración de inversiones de los proveedores de servicios (vulgo: operadores), cuyas compras a Cisco cayeron un drástico 12% y, a tenor de lo que dijo Kelly Kramer, no se espera que mejoren en el segundo trimestre y quizás en todo el ejercicio. El mercado de las telecomunicaciones – explicaron Robbins y Kramer – atraviesa una fase de consolidación, incertidumbre regulatoria y “ciertos retos seculares” (sic). Todo ello combinado ha hecho que clientes importantes de Cisco redujeran sustancialmente su capex mientras tratan de interpretar lo que el futuro depara a su negocio. No deja de ser paradójico, cuando los estudios publicados por la propia Cisco indican un tremendo crecimiento del tráfico, en particular de vídeo, por las redes de los operadores.

La de Robbins no deja de ser una descripción realista. Los operadores de todo el mundo están – con distintos grados de compromiso – evaluando las arquitecturas de red virtualizadas, basadas en SDN y NFV, un comportamiento que descoloca a los vendedores tradicionales de hardware y favorece la aparición de nuevos competidores cuyas raíces están en el software.

La tendencia se ha puesto crudamente de manifiesto en los recientes resultados de Nokia y Ericsson, cuyos ingresos de redes cayeron el 12% y el 19% respectivamente. Ciertamente, sus circunstancias son distintas a las de Cisco, que vive su propia transición con una oferta más diversificada que aquellas. Qué efecto podría tener esta situación en el pacto de Cisco y Ericsson, es una de las incógnitas del momento.

A pesar de todo, Robbins se declaró “muy satisfecho” con la evolución de Cisco hacia convertirse en compañía de software y servicios con un modelo de ingresos recurrentes, eje de su propuesta estratégica con la que se ganó el puesto de sucesor de John Chambers, frente a candidatos más aferrados al modelo tradicional. La diversificación está en marcha, y el CEO puso mucho énfasis en destacar los progresos en el área de seguridad, que considera prioritaria, con un crecimiento del 11%. Aunque, en una visión de conjunto, sólo aporta 540 millones de dólares, el 4,7% del total. A Chuck Robbins le queda un camino accidentado en su segundo año al mando.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2017 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons