publicidad

Newsletter

7 de mayo, 2018

Mucho fintech, mucha blockchain y otras zarandajas ´disruptivas`, pero a la hora de la verdad un banco es un banco, no un chiringuito algorítmico: cuando sus sistemas fallan, el servicio al cliente se derrumba con consecuencias económicas, regulatorias y de reputación. Esta secuencia se ha repetido en el caso del banco británico TSB, con cierta repercusión en España debido a que su propietario es el Banco Sabadell.

El 23 de abril, lunes, el TSB daba por completada la migración de 5,4 millones de cuentas (al parecer unos 1.400 millones de registros) a su nueva plataforma Proteo4UK, nombre que recibe la versión ad hoc del sistema usado por la entidad matriz. Los festejos resultaron prematuros: a las pocas horas, Twitter se erigió en caja de resonancia de las quejas de los usuarios de banca online y móvil.

Estas cosas pasan, se dirá. Sí, pero el CEO del TSB, Peter Pester, cometió un error de libro al empeñarse en sostener que los problemas eran intermitentes y sólo afectaban a unos pocos cientos de usuarios. A las tres de la madrugada del miércoles 25, tuiteó que el banco había vuelto a la normalidad, durante el día tuvo que precisar que funcionaba “al 50%”. El incendio en las redes continuó.

La gravedad de la crisis ha obligado a contratar de urgencia a IBM para retomar el control de la integración con los datos heredados del obsoleto sistema de Lloyds Bank, que TSB arrendaba hasta ahora. Una simple reconstrucción de los hechos puede enseñarnos unas cuantas cosas; sobre todo, nos evitará emplear en vano la palabra ´disrupción`.

TSB (antiguamente Trustee Savings Bank) ha pasado sucesivamente de fusionarse con el Lloyds Banking Group en los 90 a ser escindido en 2013 como condición del rescate de este durante la crisis financiera. En marzo de 2015, TSB fue adquirido por el Sabadell por 1.700 millones de libras y el acuerdo de compra garantizaba el uso temporal de un “espejo” de la plataforma del Lloyds y una subvención para desarrollar un nuevo sistema propio, más acorde con los tiempos.

Al frente del proyecto de transformación, el Sabadell puso a un directivo de prestigio, Carlos Abarca, hasta entonces CIO de la entidad vallesana. A lo largo de los años, esta ha crecido a través de adquisiciones y fusiones; su plataforma informática actual, Proteo, fue diseñada el año 2000 desde esa perspectiva, pero tiene ya casi 20 años.

Durante el verano de 2016, se estimaba que su variante británica, Proteo4UK, podría entrar en funcionamiento en diciembre de 2017. Tal vez fuera un exceso de optimismo: a diferencia de una migración normal de sistemas dentro de una misma organización, Abarca y su equipo no tenían una visibilidad completa de la obsoleta infraestructura del Lloyds que era su referencia. Aun así, el proyecto tenía un claro incentivo: ahorrar más de 100 millones de libras por año.

“La arquitectura es la misma que usamos en el Sabadell, a la que hemos añadido ciertos componentes específicos”, explicaba Abarca en una entrevista en diciembre. Se mantendría intacto, precisaba, el back-end de hipotecas por entender que no plantearía diferencias relevantes. El objetivo, decía Abarca a Computer Weekly, era diseñar una plataforma customer-centric, “algo que en el sector bancario es menos corriente de lo que se presume” con la finalidad de sumarse a la corriente de moda, open banking.

Para Abarca, la definición de customer-centric sería la siguiente: los datos del cliente residen en un único repositorio para todas las operaciones, reduciendo el número de sistemas para ofrecer la mejor experiencia de usuario”. Ciertamente, TSB se ha adelantado al resto de la banca británica en la introducción de innovaciones en interfaces de usuario y autentificación. Una primera expresión de Proteo4UK ha sido la nueva aplicación de banca móvil alojada en la nube de Amazon Web Services.

Lo que ahora está en cuestión es mucho más aburrido, la estabilidad de una plataforma que es el corazón de las transacciones. En el desarrollo de Proteo4UK, junto a los equipos del Sabadell, han intervenido Teradata, IBM Infosphere y MicroStrategy, entre otros partners. Cuando se puso en evidencia la imposibilidad de llegar a tiempo, el plazo se retrasó a abril de 2018.

La semana pasada, convocado por un comité de los Comunes, el CEO Pester defendió que la preparación para la migración fue satisfactoria, e incluyó 300.000 horas de formación del personal. “El motor subyacente de las transacciones – dijo Pester – ha pasado por 80.000 test […] pero el middleware no ha respondido como esperábamos ante la necesidad de procesar el número de clientes que tratarían de acceder simultáneamente a sus cuentas”. No es el tipo de explicación que tranquiliza a un diputado: la presidenta del comité le espetó “¿se da usted cuenta del daño inflingido a la reputación del sistema bancario británico?”.

La Financial Conduct Authority ha puesto en marcha una investigación que depurará responsabilidades y, probablemente, dictará una sanción económica, al margen de los litigios que puedan iniciar los clientes del TSB. El banco ya ha contratado los servicios de un bufete de la City y la consultora Deloitte para asesorarle sobre cómo gestionar las compensaciones. Hasta mañana,

Norberto

25 de abril, 2018

Hay lógica curiosidad por los resultados del primer trimestre, que hoy presentará Facebook al cierre de Wall Street. Digo curiosidad y no expectativa, porque no podrían reflejar los efectos del escándalo del uso fraudulento de datos de millones de usuarios, desvelado a mediados de marzo. Los titulares alarmantes, que preanunciaban una catástrofe para el modelo de negocio de Facebook, empiezan a resultar exagerados.

En primer lugar, porque Mark Zuckerberg ha salido airoso de su prueba de fuego en Washington DC. Los senadores y congresistas que lo interrogaron no parecían entender gran cosa del fondo del asunto: tan obsesionados estaban con la interferencia rusa – facilitada por el engaño de Cambridge Analytics – que les costaría aceptar una verdad incómoda: a los usuarios les trae sin cuidado el asunto tanto en Estados Unidos, que representan el 13% del total mundial y con más razón a los internacionales que son el 87%. Al margen de esa cuestión políticamente explosiva, dos aspectos críticos que la crisis ha puesto sobre la mesa (la propiedad y custodia de los datos personales, y el rechazo de Facebook a ser tratada como un medio de comunicación de masas) apenas fueron esgrimidos en las comparecencias.

En principio, el fantasma de una regulación federal, que pudiera conllevar sanción económica, no parece estar en ninguna agenda, aunque sería aventurado proclamar que ha sido conjurado. Zuckerberg neutralizó de entrada ese riesgo potencial – dicen que aconsejado por Sheryl Sandberg, con más tablas que él –  al comprometerse a extender a los usuarios de todo el mundo las reglas de ´control y protección` del RGPD europeo, próximo a entrar en vigor.

No debe ser sencillo cumplir ese compromiso. Porque, a los pocos días, al comunicar los nuevos ´términos y condiciones` del servicio, Facebook ha excluído de esa responsabilidad a su sede en Irlanda pasándola a la jurisdicción californiana; en caso de litigio, siempre podría argumentar la prevalencia de la ley estadounidense. Es fácil entender por qué: la Unión Europea podría castigar una infracción al RGPD con hasta el 4% de la cifra de negocios global, unos 1.600 millones de dólares. Es improbable que el nuevo reglamento europeo sea replicado en la legislación de Estados Unidos. Curiosamente, Facebook ha aclarado que esto no tendrá efectos fiscales: los ingresos internacionales seguirán facturándose desde Dublin, pero la protección de sus datos será materia de Menlo Park.

Hasta que se demuestre lo contrario, la deserción masiva de usuarios de Facebook es una hipótesis ajena a la mentalidad imperante. Como apunta The New York Times, “aunque las encuestas indican repetidamente que los ciudadanos estadounidenses dicen estar preocupados por su privacidad, lo cierto es que raramente hacen algo tan sencillo como bloquear cookies y otras herramientas usadas para la recogida de sus datos personales”. El mismo razonamiento puede valer para Europa, donde los usuarios tienden a considerar Facebook como un elemento esencial de su vida cotidiana: en un reportaje reciente, he leído que una usuaria [no adolescente] confesaba que, tras su cabreo inicial, desistió de darse de baja al reflexionar que, si no fuera por Facebook, sus ´amigos` dejarían de felicitarle el cumpleaños (sic).

Esto en cuanto a los usuarios. Obviamente, la otra pata fundamental del tinglado son los anunciantes. Pues bien, salvo contados casos de oportunismo, su silencio ha sido clamoroso, lo que también tiene una explicación plausible: Facebook es un soporte insustituible para que millones de pymes se den a conocer a través de anuncios segmentados. Lo que me lleva a recordar que, a diferencia de Google, cuyo buscador podría ser sustituído por un competidor, para Facebook no hay alternativa, es una red social única en su género. Si hasta podría decirse que, llegado el caso, una regulación la favorecería al erigir una barrera de entrada a quien quisiera competir con ella.

De lo que no hay dudas es que la cotización de Facebook ha caído de 185 a 162 dólares como consecuencia de la crisis, una pérdida de valor del 15%, que manifiesta una incertidumbre nunca vista desde que salió a bolsa. Sin embargo, tengo comprobado que de los 28 analistas [sin contar intrusos y amateurs] que cubren regularmente su acción, 26 recomiendan comprar y sólo 2 aconsejan quedarse quietos. Como, normalmente, sus clientes son inversores institucionales con posiciones tomadas, es poco probable que estas opiniones puedan conmoverlos.

En el primer trimestre, y con más motivo en el próximo, habrá que observar con lupa la evolución del margen [durante cinco años ha oscilado entre el 45% y el 52%] que, sería lógico, tendría que bajar: si Zuckerberg se pone las pilas, tendrá que incrementar los costes operativos para paliar los problemas e impedir su repetición. Esto no se arregla contratando unos cuantos revisores de textos e imágenes, ni tampoco con inteligencia artificial: lo que Facebook tiene por delante es una reconversión, lenta pero segura, de su modelo de negocios.

Vuelvo a los resultados. Tampoco sería la primera vez que, pese a mostrar buenos números, resulta que las expectativas eran demasiado altas. No es el caso esta vez, pero un placebo nunca viene mal. Está claro que Facebook – y en cierta medida el resto del sector – ha entrado en una era para la que no estaba preparada. Hasta mañana,

Norberto

9 de abril, 2018

La viñeta de Tom Toles (Washington Post) no es broma. Es una crónica sucinta del derrumbe de un invento. El de Mark Zuckerberg, alguien que ha sido capaz de construir una empresa increíblemente eficaz sobre la base de la estupidez de muchos millones de individuos. La semana pasada, Sheryl Sandberg, que durante diez años ha sido la mano derecha de Zuck, justificaba contra viento y marea la necesidad de que Facebook exista porque de lo contrario – dijo – más de 2.000 millones de personas se quedarían sin un precioso medio de comunicación y 7 millones de pymes, que no pueden pagar publicidad en los medios convencionales, no tendrían dónde anunciarse.

Me consta personalmente la extraordinaria eficiencia de Facebook. Pero no es lo que está en cuestión: su fundador ha dicho en numerosas ocasiones que la misión de Facebook es contribuir a que el mundo sea más abierto y conectado, asumiendo que con esos atributos harán que sea mejor. Un supuesto que no ha soportado el escándalo por el uso fraudulento de datos de millones de usuarios por la empresa Cambridge Analytics. ¿Y si en lugar de favorecer la campaña de Donald Trump esa masa de datos hubieran sido usados para optimizar el lanzamiento de un nuevo perfume, pongo por caso?

Bueno, al menos Zuckerberg ha tenido la gallardía de hacerse responsable personalmente del error: “yo creé esta empresa, yo la dirijo y yo tengo que resolver el problema”. Ha reconocido, en una recomendable entrevista de Ezra Klein que “salir de este agujero puede llevarnos años, pero saldremos”. La hostilidad con la que se le espera en Washington esta semana pondrá a prueba la cura de humildad que sus asesores le recomiendan.

Hoy, lunes, la compañía empezará una semana crucial informando individualmente a las víctimas de los datos personales que han escapado a su resguardo [en España, su número se estima en 127.000] lo que no podrá menos que provocar estupor – y potencialmente deserciones – entre los usuarios hasta ahora fieles.

Ahí duele. En toda su trayectoria, el éxito de Facebook ha estado asociado en gran parte con la tendencia siempre ascendente de una métrica: MAU (monthly actve users). Combinada con el tiempo medio de uso por usuario, sirve para predecir el crecimiento del negocio. Ambos parámetros han sufrido últimamente una desaceleración y el porcentaje de Facebook en el mercado de publicidad digital (en Estados Unidos) ha descendido por primera vez. No hay pruebas de que las medidas tomadas de urgencia por la compañía hayan cambiado la actitud de los anunciantes, pero no hay que descartarlo.

El ´efecto red` que ha hecho crecer la atracción de Facebook para captar nuevos usuarios, podría revertirse. Es un problema, porque del valor de la compañía (456.000 millones de dólares el viernes pasado] sólo 14.000 corresponden a activos físicos: la mayor parte de ese valor es intangible y, por consiguiente, efímero

Los inversores esperaban signos de que la compañía tenía planes para restaurar el crecimiento; pero en estas circunstancias el único plan posible es aguantar y aguantar, taponar la grave pérdida de credibilidad. La acción de Facebook ha caído vertiginosamente, provocando un descenso de 100.000 millones de dólares en su capitalización bursátil. Con detener la sangría, ya se daría por satisfecha.

Es mi opinión que dos rasgos nocivos – no necesariamente inscritos en el modelo de negocio – se han puesto dramáticamente de manifiesto: 1) la tolerancia ante las violaciones de los datos personales de sus usuarios por desarrolladores de aplicaciones que han tenido acceso a ellos y 2) la terca reticencia a admitir y rectificar errores. Facebook no es, ni mucho menos, un caso excepcional en la ´cultura` del Silicon Valley tan jaleada en nuestras escuelas de negocios; pero es el caso más grave puesto que arrastra a 2.500 millones de ilusos.

Las advertencias de que tarde o temprano su actividad podría ser objeto de regulación han sido sistemáticamente ignoradas o se ha tratado de contrarrestarlas contratando lobistas y consultores en public affairs. Hasta una nueva actitud, Sheryl Sandberg ha declarado que Facebook acogería de buen grado una regulación que fuera razonable (sic). Zuckerberg ha ido más lejos al prometer que aplicará “en todo el mundo” las reglas europeas sobre protección de datos. Lo que, dicho sea de paso, ha provocado contrariedad en otras empresas estadounidenses, que se quejan del RGPD y preferirían autoregularse.

Va de suyo que el episodio tiene muchos entresijos que no se conocen. E ingredientes que exceden mi capacidad de comentarlos. No obstante, hay uno que podría cocinarse a fuego lento: el poder ilimitado que Zuckerberg ejerce sobre Facebook. Empiezan a oirse quejas porque el fundador es a la vez chairman y CEO, además de haber impuesto una estructura que le asegura el control absoluto. Esto no acaba mañana, amigos.

22 de marzo, 2018

Hasta anoche, había recibido más de una decena de mensajes relativos a mi comentario del martes sobre el proyecto de directiva europea Digital Services. Con una sola excepción, han sido tan respetuosos y ponderados como yo quería que fuera mi texto. La mayoría de esos lectores escribe que el modelo de estructuras fiscales diseñadas para ´optimizar` el pago de impuestos es legal mientras no se demuestre lo contrario.. Estoy de acuerdo. “Cada cierto tiempo, esas compañías son sometidas a inspección y el tema se salda con un acuerdo”, observa Jesús con razón. Por su parte, Iñaki admite que la clave puede estar en un vacío legal: “cuando las normas aplicables se aprobaron, nadie imaginaba que la economía digital llegaría a ser lo que es. Una legislación pensada para activos físicos, se adapta mal a los bienes virtuales y servicios online”, dice.

Varios lectores se preguntan por qué personalizo en Apple esas prácticas que usan otras empresas de todos los sectores. Les diré por qué me he centrado en Apple: porque sigue abierta la herida de la sanción dictada por la Comisión Europea tras constatar que había concertado – a juicio de la CE ilegalmente – obtener ventajas fiscales a cambio de establecer su sede europea en el país. No les oculto que tampoco me gustó nada que a Tim Cook se le calentara un día la boca y soltara aquello de “pura basura política europea”. Dicho esto, no conozco ningún otro caso semejante, mucho menos una multa de 2.400 millones de euros.

Es verdad que muchos otros usan el mismo procedimiento. “Si coges la facturación de estas compañías en España – sugiere Jesús – verás que sólo aparece un porcentaje de ventas mínimas como comisión facturada a la matriz europea establecida en un país más benigno con los impuestos”. Alguien menciona a Cisco, que facturaba sus ventas como empresa ´holandesa` hasta que cambió su domicilio fiscal a Reino Unido. Vamos, que las cosas en Europa no son tan distintas a lo que pasa en Estados Unidos con Delaware, un auténtico santuario fiscal que disgusta al resto de los estados de la Unión.

Siempre me agrada recibir mensajes y aportaciones de los lectores. Por ejemplo, Isabel me remite un artículo de Rana Foroohar, columnista del Financial Times que, sólo indirectamente relacionado con la cuestión fiscal, aprovecho para citarlo aquí. Se refiere al célebre tesoro que las empresas tecnológicas tienen aparcado fuera de Estados Unidos – mayormente en Europa – con el fin de ahorrarse el gravamen por su repatriación. Como se sabe, la reforma fiscal aprobada en diciembre por los republicanos ha aliviado mucho esa carga para facilitar el retorno al país de muchos miles de millones.

Dice Foroohar que ese dineral está invertido en bonos de compañías –europeas, por lo general – lo que permite “a empresas como Apple y Google, en un entorno general de bajos tipos de interés, invertir en deuda ajena de alto rendimiento a la vez que emiten deuda propia más barata”, beneficiándose del diferencial.

Esta práctica es legal, faltaría más. Pero Foroohar escribe – en el Financial Times – que “en busca de algo que hacer con su excedente monetario, estas empresas han tomado posiciones en el mercado de bonos del mismo modo que lo hacen JPMorgan o Goldman Sachs. Con la diferencia de que se comportan como bancos de inversión sin serlo y sin estar reguladas como tales”.

Del artículo del FT extraigo esta frase: “El 10% de las grandes compañías más ricas en propiedad intelectual – Apple, Microsoft, Cisco, Oracle, Alphabet – controlan el 80% de ese tesoro acumulado fuera de Estados Unidos. Como sus beneficios proceden principalmente de IP, pueden moverlos fácilmente […] Los ahorros transfronterizos han pasado de 100.000 millones de dólares en 2008 a 700.000 millones en 2016”.

Cita la autora un informe económico de Credit Suisse que, tras practicar un ´análisis forense` (sic) de activos líquidos offshore de todo tipo de compañías, calcula que son equiparables al total de las reservas de divisas del banco central chino.

Si el famoso tesoro exterior no es tan líquido como se suponía, por consistir mayoritariamente en bonos – y suponiendo, que ya es suponer, que a estas empresas les importen las promesas de Donald Trump – el repatriar el dinero para invertirlo en proyectos dentro de Estados Unidos, exigiría vender los títulos en el mercado de bonos. Ante lo cual, advierte Credit Suisse, podría crearse un desequilibrio de rendimientos entre este mercado y el de acciones, que potencialmente perturbaría los planes de la Reserva Federal forzando una subida prematura de tipos para corregirlo. ¿Lo dejamos aquí?

20 de marzo, 2018

Es bien conocida una frase de Benjamin Franklin según la cual hay sólo dos certezas absolutas, la muerte y el pago de impuestos. No menos conocido es que los millonarios narcisistas del Silicon Valley (la referencia geográfica no es exclusiva, desde luego) actúan como si fueran inmortales y recurren a todos los trucos a su alcance para pagar menos impuestos.

La conferencia ministerial del G20, que ayer se inició en Buenos Aires, tiene en su agenda un documento en el que se plantea elevar la fiscalidad de la economía digital, que con toda seguridad no convencerá a todos los países representados. El secretario del Tesoro estadounidense, Steve Mnuchin, ya ha adelantado su oposición a “imponer nuevas cargas fiscales que inhibirían el crecimiento y la innovación, causando serio perjuicio a trabajadores y consumidores”. Nadie se atreve – todavía – a señalar un vínculo entre esta discrepancia y el proteccionismo comercial rampante de la administración Trump, pero esa relación flota en el aire. A esto se refiere el Center for Tax Policy, de la OCDE, al describir la situación como “inflamable”.

Mientras tanto, en Bruselas se ha presentado oficialmente la semana pasada un proyecto de directiva que apunta a gravar con un 3% de los ingresos que obtengan en territorio europeo las grandes empresas de Internet. El umbral propuesto para la llamada Digital Services Tax (DST) se fija en 750 millones de euros de ingresos globales o 50 millones de ingresos en Europa. El preámbulo del documento explica que con esta raya se evita penalizar a las startups y unicornios que se encuentran en una etapa de crecimiento. La novedad con respecto a otras iniciativas que se han quedado por el camino es que, en lugar de gravar los beneficios, lo hace directamente sobre los ingresos en determinadas actividades.

La DST no se aplicaría al conjunto de los ingresos sino sólo a aquellos que se recauden en Europa por uno de los siguientes conceptos: 1) contratar publicidad online, 2) poner en relación a usuarios de las redes y 3) vender datos recogidos de los usuarios. La tasa se devengará en el estado de residencia del usuario que utiliza un interfaz de la empresa para ver la publicidad o donde se generan los datos transmitidos a terceros.

No se ha cerrado definitivamente la discusión acerca de si deberían incluirse los ingresos procedentes de suscripciones a servicios digitales. En cambio, se excluye expresamente el comercio electrónico. En una segunda fase, la CE espera incluir en el derecho comunitario la noción de presencia digital significativa: según un texto preparatorio, los baremos para aplicar esa noción en un país miembro serían, anualmente: 7 millones de euros, un mínimo de 100.000 usuarios o 1.000 contratos relativos a la prestación de servicios digitales. Los medios y los operadores de telecomunicaciones no se verían afectados.

A simple vista, el proyecto de directiva parece redactado buscando una fórmula legalmente aceptable para evitar que las empresas elijan un país de residencia fiscal donde pudieran gozar de trato preferente, facturando y pagando allí sus impuestos. La penitencia identifica al pecado y al pecador: los primeros en oponerse al proyecto han sido Irlanda (donde residen fiscalmente Apple, Google y Facebook) y Luxemburgo (donde está la sede europea de Amazon).

La multa aplicada por la Comisión a Apple por haber pactado con Irlanda condiciones excepcionales que merecen la calificación de dumping fiscal ha sido recurrida tanto por la empresa como por el gobierno de Dublin. El monto de la sanción ha sido consignado en una cuenta congelada hasta que haya sentencia firme.

No es extraño, pues, que el actual jefe de gobierno irlandés, Leo Varadkar, haya sido el primero en declarar su oposición al proyecto. Probablemente no sería el único: según la CE, 19 países miembros apoyan la iniciativa presentada por Francia con apoyo de Alemania, España e Italia [Reino Unido dice tener la misma intención, pero ya no se sienta a la mesa salvo para discutir si el Brexit será duro o blando]. Chipre y Malta están resueltamente en contra, mientras Dinamarca y Holanda ponen objeciones de forma.

En principio, toda modificación del sistema fiscal europeo requiere la unanimidad de los estados miembros. Que es extremadamente difícil de conseguir lo demuestra el hecho de que el régimen del IVA fue aprobado mediante un ´compromiso provisional` en 1999 y aún sigue vigente. La debilidad que esto implica – y que los lobbies no dejarían de aprovechar – se pone de manifiesto en que la Comisión presenta la DST como una “recomendación”.

¿Por qué? Si, como es previsible, no se pudiera alcanzar la unanimidad, quedaría por explorar el “mecanismo de cooperación reforzada”. Permite que un número mínimo de nueve miembros establezca una integración no aplicable al resto de la Unión. El procedimiento, inventado como atajo en materias de defensa, es discutible que pueda aplicarse a la fiscalidad. Si así fuera, podría trazar una línea divisoria entre las grandes economías del bloque, que se sienten expoliadas por empresas que contribuyen menos de lo que deberían – palabras de Emmanuel Macron en septiembre en la cumbre de Talln – con la complicidad de otros socios cuyos modelos tributarios contemplan (o al menos no descartan) desgravaciones dirigidas a atraer inversiones.

El problema de la erosión fiscal en favor de las multinacionales es un viejo debate. Según el Financial Times, en los diez años de la gran recesión, las tasas efectivas pagadas por las 10 compañías más grandes en nueve sectores cayó una media del 9%, con la peculiaridad de un descenso más pronunciado en las que pertenecen a la economía digital. En el mismo período, la presión fiscal sobre los individuos ha tendido a aumentar en la mayoría de los países.

También es antigua la crítica a las empresas digitales por haber creado estructuras sociales que les permiten encontrar atajos para desviar el pago de impuestos a las jurisdicciones que les son más favorables. El caso paradigmático (pero lejos de ser el único) es Apple. Aquí mismo, sin ir más lejos, opera a través de una filial llamada Apple Marketing Iberia, cuya actividad se define en las cuentas anuales como “soporte de ventas y proveedor de servicios de marketing y complementariamente servicios de investigación y desarrollo a empresas relacionadas, y recibe una cuota por los servicios prestados al grupo”.

¿Es legal? No será yo quien dude de que Apple es una empresa respetuosa de la legalidad. Como ciudadano, me resulta chocante imaginar la filial española como comisionista de un negocio que, según la definición citada, tiene como titular a otra empresa del grupo, Apple Distribution International, radicada en Irlanda. No creo que sea la excepción, de manera que me inclino por pensar que el proyecto de directiva europea DTS tiene fundamento. Y no diré más, por ahora.

12 de marzo, 2018

Un comentarista la ha descrito como “una partida de ajedrez ultidimensional”. Ignoro si tal cosa existe, pero la oferta de compra de Broadcom sobre Qualcomm, la más costosa de que el sector tecnológico tenga memoria, se hace más complicada cada semana que pasa. El último episodio – por ahora – ha sido la ´petición` de un organismo federal estadounidense para que Qualcomm postergara su junta de accionistas, que debía reunirse el 6 de marzo, con el fin de dar más tiempo a investigar las implicaciones de la operación para la seguridad nacional.

Es la primera vez que el CFIUS (Commitee on Foreign Investment in the US) integrado por funcionarios de los departamentos del Tesoro y de Justicia, interviene de oficio antes de que las partes hayan encarrilado las negociaciones y esto ya indica la urgencia del motivo.

El argumento del CFIUS tiene un sesgo muy claro: confirma que la industria de semiconductores se ha convertido, políticamente, en campo minado. Dice: “La reducción de la competitividad tecnológica a largo plazo de Qualcomm tendría un impacto significativo sobre la seguridad nacional de Estados Unidos […] el debilitamiento de su posición abriría las puertas para la expansión de la influencia china sobre la estandarización de 5G. Gracias al continuo incremento de sus presupuestos de I+D, compañías chinas, entre ellas Huawei, acumulan el 10% de las patentes esenciales relacionadas con 5G. Actualmente, Estados Unidos mantiene su relevancia en la definición de estándares, pero podría perderla a manos de China como resultado del vacío que podría crearse a través de una oferta hostil sobre Qualcomm.

La frase esconde una distorsión falaz: tras cerrar – pagando – un largo contencioso con las autoridades de Pekín, Qualcomm ha firmado acuerdos con los fabricantes chinos de smartphones – excepto con Huawei, mira por dónde  – para que sean socios preferentes en las pruebas de chipsets 5G.

Al parecer fue Qualcomm, a finales de enero, quien se dirigió al CFIUS para sugerir una intervención unilateral: es llamativo que este lo hiciera a 48 horas de la junta de accionistas.  De haber llegado tarde, habría dado tiempo a que Broadcom cambiara su domicilio en Singapur para retornar a jurisdicción fiscal estadounidense. Fundada originalmente en Estados Unidos y con su centro operativo real en San José (California), Broadcom optó por registrarse en Singapur para obtener ventajas fiscales. Si en mayo diera el paso inverso –  como oportunistamente prometió su CEO,  Hock Tan, al mismísimo Donald Trump – el comité ya no podría intervenir porque no se trataría de una inversión extranjera.

Broadcom no disimula su irritación, pero evita criticar a Washington: en cambio, acusa a Qualcomm de valerse del órgano federal para protegerse y eludir una “negociación sincera” de los términos de la fusión. La verdad es que los antecedentes de Tan alientan la suspicacia: en cada empresa de las que ha comprado desde que dirige Broadcom, ha procedido a desguazarla parcialmente para amortizar la deuda con la que ha financiado la adquisición. Si se relee el párrafo de CIUS, suena poco realista suponer que Tan piense en sacrificar precisamente aquello por lo que todo el mundo valora a Qualcomm, pero la advertencia se alinea con la política de la administración Trump, que ha bloqueado la entrada de Huawei a Estados Unidos.

Si el gobierno chino quisiera meter baza, tiene con qué. Es el único de los implicados que no ha dado luz verde a la compra de NXP por Qualcomm y la prensa asiática prevé que podría demorarla indefinidamente como réplica a la hostilidad estadounidense. NXP es una pieza suelta sin la que el puzle no encaja: está pendiente la aprobación final de sus accionistas tras elevar Qualcomm su oferta, pero se teme que si esta cayera finalmente en manos de Broadcom, la amalgama de las tres compañías difícilmente pasaría el filtro de la legislación antitrust. Como poco, tendría en vilo a sus integrantes – y a sus competidores – durante uno o dos años, con final incierto. Anticipando el riesgo, Tan se ha negado a elevar el monto de la penalización que Broadcom debería pagar si, por cualquier motivo, no llegara a cerrarse la transacción. Lo que no ha caído nada bien entre los accionistas de Qualcomm.

Los inversores tienen muchas cuentas que hacer y los analistas no acaban de ver las bondades de la oferta. Por esto, Broadcom se dedica a cortejar a los fondos Blackrock y Vanguard, dos de los accionistas principales. Cuando se reúna la junta, tendrán que decidir si incorporar seis consejeros propuestos por Broadcom, momento en el que podrá valorarse si la adquisición tiene visos reales de prosperar.

En este contexto, se ha conocido una maniobra extraña. Paul Jacobs, hijo del fundador de Qualcomm y reacio a aceptar la oferta, ha abandonado el puesto de presidente ejecutivo – manteniendo el de consejero – con lo que se pretende dar apariencia de ecuanimidad a la reacción ante la oferta. Lo sustituye como chairman un independiente que desde 2016 representa a otro fondo de inversión.

Las opiniones de terceros están divididas acerca de la probabilidad de la oferta de Broadcom. Se ha pasado de valorarla en función del precio a considerar los riesgos que plantea. Ahora mismo, prevalece la impresión de que el rechazo implícito del CFIUS la ha dejado malherida. Puede que Tan esté maniobrando para evitar el papelón y, quizá, volver a la carga más adelante. Si así ocurriera, el temor a una secuencia de obstáculos legales haría que los accionistas de la californiana rechacen los cantos de sirena de Broadcom: esto es lo que sugieren las cotizaciones de los últimos días: Qualcomm sube, Broadcom baja.

Hay otro actor que observa con vivo interés los acontecimientos: Intel. segundo fabricante de semiconductores del mundo [el primer puesto se lo ha arrebatado Samsung] . A Intel no le conviene en absoluto que Qualcomm se crezca, tanto da que sea por sus propias fuerzas o mediante una fusión:  el conflicto con Apple ha dado a Intel la oportunidad de colarse como suministrador para smartphones.

Según el Wall Street Journal, Intel lleva tiempo elaborando un plan b: si Broadcom consiguiera controlar Qualcomm, tendría enfrente un rival de su talla (240.000 millones de dólares de capitalización) y tendría que responder con adquisiciones. Hasta aquí, nada de particular. Lo que aporta de nuevo la información es muy especulativo: en el caso de que la oferta colapse y Tan quede expuesto a la ira de sus accionistas, se le abriría a Intel la posibilidad de un intento de compra de Broadcomp. Intel ha desmentido al WSJ, que ya se había curado en salud al escribir que una operación de esa magnitud podría amenazar la salud financiera de Intel sin aportarle ventajas competitivas apreciables.

8 de marzo, 2018

El viernes pasado, regresando en tren a Madrid, reparé en este titular:  “Más negocios que nuevos teléfonos”. El vicio profesional me indujo a valorarlo como un buen resumen a la vez que fruto de un equívoco tan antiguo como el Mobile World Congress. Creo que este ha sido mi undécimo MWC y si algo he aprendido en estos años es que se equivocan quienes lo juzgan como una feria de móviles. Lo he escrito otras veces, pero creo que el error sólo puede crecer.

Sin embargo, reconozco que quien recorre los pabellones de la Fira a caza de gadgets inevitablemente se frustra al descubrir – como ha sido el caso en 2017 y 2018 – que esas novedades no satisfacen su deseo de asistir en primera fila a esa innovación permanente con la que gusta identificarse una industria menos rutilante de lo que se cree. Me consta que algunos han escrito que los productos anunciados se distinguen poco unos de otros y, en el mejor de los casos, sólo aportan avances incrementales. Estoy de acuerdo con ellos.

Todos conocemos empíricamente la explicación: la demanda de smartphones tiende a saturarse. Es notorio en los mercados occidentales y se extiende a los emergentes, entre ellos los asiáticos que han sido el motor de los últimos años. Los consumidores no encuentran motivos suficientes para forzar el ciclo de sustitución comprando el último dispositivo anunciado. Por su lado, las marcas son conscientes de que un porcentaje muy elevado de los usuarios, incluso los más fieles, son conservadores al estirar la vida útil de sus smartphones.

Se ha producido en 2017 una curiosa inversión de tendencias. El mercado de PC ha vuelto a crecer y el de smartphones – que supuestamente sería su killer – ha declinado por primera vez desde que existe la categoría. En concreto, según IDC, los despachos de smartphones descendieron globalmente un 6,3% en volumen durante el cuarto trimestre de 2017, cerrando el año con una décima negativa.  No parece que el primer cuarto de 2018 vaya a cambiar la corriente.

Si acaso el lector se está preguntando por el mercado español, el gráfico siguiente le ayudará a entender la cercanía del problema.

Según GfK, en 2017 se vendieron (al cliente final) en España 11.284.000 smartphones, que parecen muchos pero son un 8,9% menos que en 2016. Lo más revelador del informe es el desglose por tramos de precio: tres de cada cuatro (exactamente el 73,8%) se han vendido a menos de 300 euros y, en el extremo opuesto, el 12,5% a más de 600 euros.

No entraré aquí en el análisis de las marcas, pero avanzaré que 1) en una visión de conjunto, Samsung ha sido la marca más vendida, gracias a su dominio de la gama media y a su fortaleza en la alta, 2) Apple, Samsung y Huawei – dejando algo de espacio a LG – dominan la parte alta del mercado, la más rentable. Se supone que los modelos premium ganan cuota lentamente, pero no creo que esto se deba a sus pantallas ´infinitas´, sus cámaras resultonas o sus e-mojis. Es un fenómeno sociológico de desarrollo desigual del mercado, en el que las apps ya no despiertan ni curiosidad. ¿Cambiará este panorama con la llegada de 5G? Supongo que sí, pero no sé cuándo ni con qué alcance o impacto sobre el mercado. Al menos inicialmente, no parece que los smartphones vayan a protagonizar la fase inaugural de 5G.

Conviene no engañarse. En el MWC, las abundantes referencias a 5G han sido atemperadas por las dudas sobre la regulación – que en Europa rozan la ansiedad – y la consiguiente preocupación acerca de los modelos de negocio que justifiquen financiar la inversión en desplegar redes e infraestructuras.

Desde este punto de vista, el saldo del MWC ha sido agridulce para mi condición de ciudadano europeo. Nuestra debilidad es manifiesta. Créanme que no acostumbro a asistir a mesas redondas, y mucho menos a alocuciones funcionariales, pero esta vez acudí con remilgos a una que se anunciaba bajo el título The Future of the Industry: Transatlantic Digital Policy and Regulation [o mucho me equivoco o yo era el único español en la sala].

Me interesaba la previsible confrontación entre Andrus Ansip, VP de la Comisión Europea, y Ajit Pai, presidente de la FCC estadounidense. A priori, un tipo designado por Trump debía caerme antipático. Pero, al final, Pai fue más convincente, o tal vez seguro de sus fuerzas: ambos son miembros de entes colegiados, pero el americano tiene respaldo mientras el estonio, lo digo en su homenaje, sólo puede exhibir buenas intenciones.

Como es lògico, Pai hizo una orgullosa defensa de la derogación de la así llamada neutralidad de red [sí, ya sé que tengo pendiente este tema] mientras Ansip se escudaba en una disculpa: “en Europa no es tan fácil cambiar las reglas”. O sea que el tipo que me caía bien acabó perdiendo el debate. Si 5G fuera una carrera entre tres caballos, Estados Unidos y China galopan hacia la meta mientras al jinete de Europa se le nota enfermo de melancolía por sus hazañas pasadas. ¿A alguien le sorprende?

Pido disculpas a los lectores por la discontinuidad de este blog durante los últimos días, debida a una gripe que me pilló en Barcelona y aún no se ha ido del todo.

14 de febrero, 2018

Vuelve a hablarse de una combinación entre Vodafone y Liberty Global en Europa. No es un bulo. Ambas partes confirman la existencia de conversaciones, de lo que se deduce dos desenlaces: o bien el acuerdo es inminente o es imposible. Porque llevan más de dos años activando y desactivando la negociación. En el Mobile World Congress 2015, Vittorio Colao, CEO del grupo británico, comentó a la prensa que “un intercambio de activos” con Liberty Global tendría mucho sentido. No pasó nada más aquel año, al parecer por discrepancias en la valoración de los activos en cuestión .

Pero en 2016, los dos grupos unieron sus operaciones en Holanda bajo la marca Ziggo, y Colao describió la fusión con una metáfora inverosímil:  “es como juntar a Messi con Cristiano Ronaldo”. Meses más tarde, Liberty vendió a Deutsche Telekom su filial austríaca por 1.900 millones de euros, acto que extrañamente fue interpretado como un gesto que facilitaría el acuerdo con Vodafone.

Este enero, tras presentar los resultados de su tercer trimestre, Colao ya no habló de “intercambiar activos” sino de “comprar activos” en ciertos mercados continentales donde la actividad de los dos grupos se solapa:  Alemania, Hungría, República Checa y Rumania. Quedarían fuera del trato las posesiones de Liberty en Reino Unido e Irlanda (bajo la marca Virgin) y filiales menores en Polonia y Eslovaquia carentes de interés para el comprador.

Entre todos, sin duda el mercado más importante es Alemania, con diferencia. Para profundizar su estrategia convergente en este país, Vodafone sumaría 7,2 millones de usuarios de telefonía fija – la mitad en banda ancha – a los 6,3 millones con los que ya cuenta. La aportación en telefonía móvil no pasaría de ser marginal, pero la guinda del pastel sería 6,4 millones de clientes de televisión de pago.

Analistas del sector creen saber que no habrá más noticias sobre la transacción hasta sondear la opinión del regulador germano Bundesnetagentur. Entretanto, el Financial Times ha anticipado un precio hipotético de 14.000 millones de euros, que a primera vista parece bajo, si se tiene en cuenta que el ebitda que genera la filial alemana de Liberty es de 2.000 millones y un múltiple típico en el sector es de 10x. Cabe, por tanto, que se piense en una estructura financiera conjunta, que rebajaría el coste para Vodafone y esquivaría objeciones del regulador. A priori, Deutsche Telekom no se opondría al acuerdo entre sus rivales, tras haberse quedado con la filial austríaca de Liberty.

“Si Europa quisiera crear una alternativa real a los incumbentes – ha dicho Colao – la unión de Vodafone y Liberty es la mejor opción”. La compra de activos de Liberty reforzaría la huella continental de Vodafone – aún le queda por resolver su debilidad en Reino Unido – pero conviene fijarse en el contexto.

Y ese contexto nos dice que hay una discrepancia de fondo en Europa entre los operadores a un lado y los reguladores a otro, en torno a la consolidación transfronteriza. Según los primeros, es imprescindible para financiar la inversión en infraestructuras, mientras que los segundos la ven como un perjuicio potencial para el consumidor. Estos días ha habido un episodio revelador: el operador danés TDC optó por aceptar la oferta de un fondo australiano al comprobar el desinterés de su vecino sueco Telia, que se abstuvo por temor al bloqueo de la Comisión Europea.

De concretarse, la transacción entre Vodafone y Liberty confirmaría la estrategia de Colao: no sueña con fichar a Messi y Cristiano, sino con algo posible en este mundo: conformar en Alemania un polo fuerte, capaz de competir mano a mano con Deutsche Telekom y derrotar a la un poco alicaída filial germana de Telefónica.

¿Competir en qué y cómo? En banda ancha, soportada por una potente infraestructura de cable y fibra e inversiones en la red 5G. No parece, en cambio, que Vodafone tenga intención de meterse en una batalla por los contenidos audiovisuales, como han hecho BT en Reino Unido y Telefónica en España. Ha dado marcha atrás en su plan de lanzar un servicio de TV de pago en Reino Unido para, en cambio, dedicar recursos a mejorar la red y el servicio a los usuarios, el problema más urgente que tiene en su país de origen.

Al respecto, sirve como lección es el caso de Orange, uno de los primeros operadores en meterse en ese jardín, que ofrece TV a 2,7 millones de clientes pero descree de la “seudo convergencia entre telecos y medios”, en palabras de Ramón Fernández, CEO adjunto del grupo francés. Algo parecido ha dicho Tim Hoettges, CEO de Deutsche Telekom: “en vez de tratar de convertirnos en un Time Warner [obsérvese la ironía] vamos a desplegar tanta fibra como podamos”.

Queda suficientemente claro por qué Colao está dispuesto a alguna forma de fusión. Lo que hay que preguntarse es por qué lo está John Malone, fundador de Liberty. Su mote, Cable Cowboy, dice mucho de sus métodos de negociación. Una de las diferencias entre los personajes es que el americano ha sido siempre proclive a endeudarse, mientras que el directivo italiano ha mantenido la deuda de Vodafone bajo control: 2,1 veces el ebitda.

Si de la opinión de los inversores dependiera el acuerdo, la acción de Vodafone escaló un 4,4% en Londres y la de Liberty un 3,2% en Nueva York, tras conocerse la noticia.

6 de febrero, 2018

El comunicado de Intel acerca de sus resultados del cuarto trimestre (y del año) incluye esta frase inquietante:  “nos enfrentamos, y puede que siga ocurriendo, a reclamaciones, litigios y publicidad adversa relacionadas con las vulnerabilidades Meltdown y Spectre […] que podrían tener un impacto negativo sobre los resultados de nuestras operaciones, las relaciones con clientes y la reputación de la compañía”. Este disclaimer de obligada sinceridad no ha alterado el ánimo de los inversores, más interesados en los resultados concretos, que han sido mucho mejores que lo esperado en Wall Street.

Una racha ascendente en el gasto de las empresas, junto con el boom de inversión de los hyperscalers [grandes proveedores de cloud] confluyen en el éxito de ventas que desde julio están teniendo los procesadores Xeon SP Skylake, que esas dos categorías de clientes compran integrados en servidores y equipos de almacenamiento]. Es lo que explica la contribución del Data Center Group a las sólidas finanzas de Intel. Bob Swan, CFO de la compañía, se declara convencido de que no es un fenómeno pasajero, y pronostica que en 2018 los ingresos totales cruzarán la línea de 65.000 millones de dólares, lo que significaría un 4% de crecimiento.

En la conferencia con analistas apenas se mencionó la competencia, en el sobreentendido de que la revitalización de AMD con sus nuevos chips Ryzen y EPYC no hará mella en las ventas de la remozada familia Xeon. Aunque últimamente prefiere hablar de sus ´iniciativas estratégicas` más que de otros asuntos, el CEO Brian Krzanich vaticinó que la plataforma Xeon seguirá siendo dominante en los centros de datos por los años venideros, y realmente sería difícil que su cuota de mercado menguara significativamente, partiendo del nivel actual de 90% de los ingresos y 99% de los sistemas despachados. Esto no significa, ni mucho menos, que Intel renuncie a seguir liderando su otro gran mercado, los procesadores para desktop y portátiles, que aún representan el 54,1% de sus ingresos totales y el 58,3% de su beneficio operativo.

La acción de Intel, que había caído bruscamente tras conocerse la existencia de esas vulnerabilidades, no sólo ha recuperado su cotización anterior sino que llegó a superar brevemente los 50 dólares, su máximo desde el 2000. La razón de la escalada es sencilla: tanto los ingresos [62.761 millones de dólares) como los beneficios [17.936 millones] alcanzaron sendos máximos históricos en el trimestre, gracias a los negocios que la nomenclatura reciente de Intel clasifica como data-centric: crecieron un 21% de octubre a diciembre y el 16% en el año.

El perímetro de data-centric es más grande que el clásico del Data Center Group, e Intel lo desglosa aposta para que se perciba su diversificación. Ahí se ve la huella de adquisiciones de los últimos años: IoT, memorias y chips programables ya aportan 8.600 millones anuales a la cifra de negocio total. Tomadas en su conjunto, las actividades data-centric sumaron más de 27.000 millones de ingresos en 2017. Insuficientes para dar caza al Client Computing Group [34.000 millones] pese a que este retrocedió un 2% por culpa de la floja demanda de PC. El sorpasso, de producirse, tendría que ser en 2018, dio a entender el CFO Swan.

29 de enero, 2018

Puede sonar extraño, pero las multas son consustanciales a la existencia de Qualcomm, siempre bajo la acusación de abuso de posición dominante. Ha ocurrido en Estados Unidos, Corea del Sur, China y ahora toca a la Comisión Europea sancionar a la empresa californiana: la comisaria Margrethe Vestager ha concluído un expediente que se origina en los “pagos ilegales de Qualcomm a uno de sus clientes con el fin de cerrar a sus competidores las puertas como suministradores de chips de banca base LTE”. La multa a pagar, 997 millones de euros, no es pecata minuta ya que representa el 4,9% de los ingresos de Qualcomm en 2017.

La investigación ha girado en torno a los pagos de Qualcomm a Apple durante cinco años (2011 a 2016) condicionados al uso exclusivo de sus chips en los modelos de iPhone e iPad. Según Vestager, no se trató de una simple rebaja del precio [¿si lo fuera sería aceptable?] sino de una imposición expresa; la documentación examinada demostraría que, a cambio del dinero recibido, Apple renunció a contratar a Intel como segundo suministrador [últimamente ha adoptado un módem fabricado por Intel en una parte de los nuevos iPhone]

Se da así la circunstancia de que Qualcomm corre el riesgo de perder a Apple como cliente, como consecuencia de un litigio en el que la marca de la manzana denunció como abusivas las condiciones de licencia y le reclama el reembolso de unos 1.000 millones de dólares, monto en el que estima haber sido perjudicada.  No parece que haya posibilidades de arreglo entre las partes, pero eso tampoco tendría por qué suponer una ruptura total [véase el caso de Samsung]. Sin embargo, lo que es una mala noticia para Steve Mollenkopf, CEO de Qualcomm, también podría actuar como paliativo para otro de sus problemas: sigue abierta la oferta de compra hostil lanzada por Broadcom por 105.000 millones de dólares.

Inversores que apoyan a Broadcom en el intento, han manifestado el temor a que los problemas regulatorios y judiciales de Qualcomm se estiren durante años y, por ellos, se retrasen las autorizaciones que la transacción requiere en varios países, uno de ellos China.

Precisamente de China ha recibido Mollenkopf una buena noticia. Cuatro fabricantes de smartphones (Xiaomi, Vivo, Lenovo y Oppo) han firmado un manifiesto de apoyo a Qualcomm, en el que advierten que si cayera en manos de Broadcom, la combinación crearía una situación monopólica con el resultado de encarecer los chips que ahora compran a las dos partes. El texto está manifiestamente dirigido a convencer al gobierno de Pekín de bloquear la OPA.

La idea, a menudo expuesta por los analistas, de que Qualcomm tenía una dependencia excesiva de las compras de Apple, está cambiando: la nueva tesis imperante es que la salvación podría venir de esos fabricantes, cuyo ritmo de crecimiento se ha acelerado. El cuarteto chino tiene a su favor el hecho de que, tras pagar una multa de 1.000 millones de dólares a Pekín en 2015, Qualcomm se ha comprometido a ser escrupulosa con sus precios en ese mercado.

En una conferencia reciente, Cristiano Amon –  número dos de Qualcomm y probable sucesor del quemado Mollenkopf – ha subrayado que las marcas chinas despacharán la mayor parte de los smartphones que se vendan en el mundo en 2022, prolongando lo ya visible. Sólo un fabricante chino no depende del suministro de Qualcomm, Huawei, porque diseña los suyos internamente.

Hace sólo unos meses, la mayoría de los observadores aventuraban que el litigio con Apple dejaría malherida a Qualcomm. Tal percepción ha cambiado radicalmente: su liderazgo en 5G confluye con la ambición china de que el advenimiento de 5G sea un arma para destronar a Apple. Por tanto, ambos fenómenos se refuerzan recíprocamente. Ahora y quizá por mucho tiempo.

Otra complicación pendiente es la oferta de Qualcomm por NXP, que le permitiría dar un salto en su estrategia de diversificación hacia el mercado de la automoción, pero tarda en consumarse. La operación ha sido autorizada por las autoridades europeas, pero algunos accionistas de la empresa holandesa están consiguiendo que se demore con dos argumentos que en realidad son uno solo: insisten en que la empresa vale más de los 47.000 millones de dólares ofrecidos y que la compradora es hoy más débil a causa de su disputa con Broadcom.

23 de enero, 2018

“Se mire por donde se mire, ha sido una excelente forma de acabar el año”. Se entiende que Martin Schroeder mostrara su satisfacción: el cuarto trimestre ha sido el primero, desde que fue nombrado CFO de IBM, en el que esta quebró su larga racha negativa; con esa credencial acaba de asumir su nuevo cargo, SVP de Global Markets, que lo convierte en directo responsable de la generación de ingresos y beneficios. Su sucesor, James Kavanaugh, se estrenó en plan triunfalista: “hemos pasado por un lifting obligado para reinventar el negocio; entramos en 2018 con un perfil de ingresos mucho mejor que el de hace un año”.

En el cuarto trimestre de 2017, IBM obtuvo un crecimiento en ingresos del 4%, cerrando un ciclo de veintidos trimestres en el que sus ventas cayeron un 15%. De octubre a diciembre, ingresó 22.050 millones de dólares, algo más que lo esperado por los analistas. Tiene mérito, pero no fue del todo sorpresivo: se sabía del aumento de ventas del nuevo mainframe de la serie z, disponible desde el verano. De modo que la división de Sistemas fue determinante, con un crecimiento del 32%: otros productos de esta – la familia Power y la rama de almacenamiento – aportaron lo suyo.

Schroeter dijo a los analistas que tres de las cuatro divisiones han tenido crecimiento. La que no fue la organización de servicios (GTS) que pasará pronto por una cura bastante más dolorosa que un lifting: no sólo cayó en ingresos, sino que sus márgenes son la mitad de los que generan los sistemas y el software.

Por eso, aun admitiendo que el alza de los Sistemas sea transitorio, lo mejor de los resultados procede de los “imperativos estratégicos”. El analista Mark Moskowitz, de Barclays, destaca en su informe que la marcha del negocio cloud en el cuarto trimestre “permite pensar que la oferta de servicios en la nube de IBM puede tener un subidón en los próximos 12 a 18 meses”.

Igualmente positiva es la visión de Kathy Huberthy, de Morgan Stanley: “IBM está liderando la conversación en áreas tecnológicas nuevas, como IA, blockchain y computación cuántica”. Según sus fuentes, una proporción inusualmente alta de clientes estaría renovando sus contratos de licencias”.  Por otro lado, se subrayó que los diez primeros bancos del mundo y ocho de las primeras aerolíneas, han renovado sus pedidos de mainframes.

Claro que también hay aguafiestas, esos analistas críticos para quienes IBM renquea porque sus resultados, incluso siendo mejores, se apoyan en dos patas inestables: los mainframes y la depreciación temporal del dólar. En términos anuales, los 79.100 millones de ingresos anuales muestran ¡al fin! un crecimiento pero ¡qué pena! de sólo el 1%. Durante la conferencia, hubo un intercambio entre Schroeter y Toni Sacconaghi (Bernstein). A este, más que los ingresos, le importaban los márgenes, su calidad.

Al final del diálogo, el CFO saliente no logró que Sacconaghi se moviera de su opinión inicial: “la erosión de márgenes es la peor que he visto en mucho tiempo […]”. Ejemplos al canto: en la división Global Business el margen operativo bruto cayó al 24,8% mientras en la de Servicios Tecnológicos y Plataformas Cloud [el mayor segmento, a la vez que el más problemático] volvió a bajar dos puntos y en la de Sistemas otros 1,2 puntos. La media anual del 45,8% es inferior a la de 2016 [aunque la del cuarto trimestre fue del 48%] y Schroeter justificó la tendencia por las inversiones acometidas para dar la vuelta a la situación.

En todo caso, la perspectiva de la primera mitad de 2018 se anuncia más clara debido a – según Kavanaugh – a la sustancial mejora que se espera en el negocio cloud.

A pesar de las buenas noticias y de un free cash flow de 13.000 millones – del que la compañía retornó un 70% a los accionistas – la cotización de IBM ha bajado en horas posteriores a conocerse los resultados. ¿Cómo entenderlo? Lo más plausible parece pensar que los inversores institucionales, que la sostuvieron mientras esperaban ver la luz del túnel, han redescubierto la impaciencia justo al salir a la superficie.

La primera razón del optimismo que se irradia desde la compañía es que sus “imperativos estratégicos” están funcionando al extremo de que ya representan ya 46% de los ingresos; si se consideraran por separado – ¡ay, quién pudiera quitarse el peso del pasado! – su crecimiento sería del 17% interanual.

15 de enero, 2018

Creo no precipitarme si digo que a Virginia Rometty se le acaba el crédito… y el discurso. Tras 22 trimestres consecutivos sin mostrar crecimiento en los ingresos, la chairwoman y CEO de IBM tendrá difícil convencer a analistas e inversores, el próximo vienes, de que aún tiene alguna idea sobre cómo enderezar una compañía. La acción de IBM ha caído de 213 a 163 dólares en los pasados cinco años pese a haber premiado a los accionistas con el 80% de los 92.000 millones de cash flow generados. Su margen operativo ha caído del 21% al 15% y el retorno de capital, que era del 31% es hoy del 19%.

La inminente presentación de los resultados del año fiscal 2017 coincidirá con un llamativo cambio de fichas. Martin Schroeter, que ha acompañado a Rometty desde enero de 2014, deja el puesto de Chief Financial Officer a otro veterano, James Kavanaugh. No hay que ver la salida de Schroeter como un castigo, porque los problemas de IBM no tienen raíz financiera. Es significativo que su nuevo cargo es de vicepresidente senior a cargo de Global Markets, curiosamente un papel similar al que tenía Rometty antes de ser escogida como sucesora de Sam Palmisano.

En espera de conocer las cifras de 2017, la semana pasada se publicaba una noticia que ya se barruntaba internamente. IBM tiene a punto de caramelo una reestructuración masiva de la división Global Technology Services (GTS), que afectaría de una u otra forma a 30.900 empleados. GTS es la rama encargada de dar soporte a las infraestructuras de sus clientes, lo que vincula su negocio al legacy y a la declinante actividad de outsourcing. En la medida que la compañía ha ido poniendo énfasis creciente en el negocio cloud y otros “imperativos estratégicos” (IA, ciberseguridad, analytics y movilidad, a los que recientemente ha añadido blockchain) esta división pierde relevancia y sus ingresos bajan gradualmente [en el tercer trimestre de 2017 aportó 7.500 millones, un 4% menos que en igual período del ejercicio anterior] mientras los nuevos negocios se desperezan.

Se dirá, con razón, que esta es una tendencia general del mercado de TI: en todas partes, las empresas desplazan procesos de sus datacenter propios en beneficio de proveedores de servicios en la nube. Lo grave del caso es que GTS arrastra una plantilla de 103.000 empleados distribuída globalmente.

Sabido es que al comienzo de cada año IBM procede a recortes de personal más o menos numerosos según las circunstancias. Los de 2018 prometen ser dramáticos. Han trascendido detalles de un análisis que IBM encomendó a la consultora Bain [y no a PwC, que es de su propiedad] con el objeto de transformar radicalmente GTS. A continuación, la foto de una transparencia obtenida por The Register que resume el contenido de la propuesta:

Bain plantea una “transformación del modelo de SD&T [service delivery and technology] mediante el redespliegue productivo (sic)” de una tercera parte de la plantilla de GTS. De aceptarse esta recomendación al pie de la letra, se verían afectados 30.900 puestos de trabajo: 10.900 en Estados Unidos y 20.000 en el resto del mundo. El desglose indica que 10.100 de ellos serán eliminados [literalmente, son clasificados como attrition w/o backfill] lo que se interpreta en el sentido de que a lo largo de este año los despedidos no serán reemplazados y, dado el caso, los contratos no serán renovados. Adicionalmente, unos 9.300 empleados serán reasignados a nuevos roles dentro de la compañía y otros 6.000 (g&h en el gráfico) se detraerán de subcontratas prescindibles. Quedaría un remanente de 5.500 casos “pendientes de encontrar una solución”.

La noción de “redespliegue productivo” no es un eufemismo, qué va: la meta del programa de transformación sería alcanzar una fórmula 20/20/60, según la cual el 20% del personal que siga en GTS seguiría en sus puestos locales, otro 20% en sitios nearshore [desempeñando funciones regionales sin moverse de sitio] y el 60% restante offshore. Consultados acerca de estas noticias, los voluntariosos comunicadores de la compañía se han salido por la tangente: “IBM continuará invirtiendo en el desarrollo profesional de sus empleados, enfocada como siempre en sus iniciativas estratégicas”.

10 de enero, 2018

Se ha frustrado, aparentemente por “presiones políticas”, el esperado anuncio formal entre AT&T y Huawei del acuerdo por el cual el segundo operador de  telefonía móvil de Estados Unidos iba a incorporar a su catálogo de smartphones el Mate 10, que en Europa se vende con éxito desde hace meses. Para la compañía china, habría sido el espaldarazo que necesita para ser una marca verdaderamente global: al cierre del tercer trimestre, su cuota de mercado mundial alcanzó el 11,3%, sólo siete décimas por detrás de Apple. Los analistas están convencidos de que en el último cuarto del año se ha aupado al segundo puesto, todavía lejos de Samsung.

No se ha ofrecido – ni se ofrecerá – una explicación oficial de la renuncia de AT&T a un acuerdo que parecía cerrado hasta el punto de que debía consumarse oficialmente esta semana en el CES de Las Vegas. Sin embargo, hay motivos suficientes para atribuirlo a la interferencia política: la actual administración hace gala de su hostilidad a la importación de mercancías chinas. Hay un antecedente: desde 2012 los equipos de red de Huawei, que se venden sin trabas en el resto del mundo, están vetados en Estados Unidos por decisión de un comité del Congreso de 2012; esta prohibición no afecta a sus productos de consumo.

Por otro lado, AT&T tiene sus propios dolores de cabeza: la administración Trump ha rechazado su acuerdo para comprar Time Warner, aparentemente con la intención de provocar la caída de la cadena CNN, cuya línea editorial es muy crítica con los exabruptos del presidente. La compañía ha recurrido ante la justicia, pero bien podría haber considerado que es mejor no crearse otro problema.

Según la prensa estadounidense, las negociaciones han durado un año; para ganarse la confianza del operador, Huawei hizo todo lo necesario para adaptar el Mate 10 Pro a la normativa estadounidense. Este modelo llegó a estar homologado formalmente por el operador. Asimismo, el director de la división móvil de Huawei, Richard Yu, prometió invertir más de 100 millones de dólares en marketing para resaltar la imagen de su marca en un mercado donde es casi por completo desconocida. Una concienzuda investigación de mercado, que pretendía identificar los hábitos del consumidor americano, había preparado el terreno para un lanzamiento que estaba previsto en febrero con una campaña en TV.

Estados Unidos ha pasado en 2017 a ser el tercer mercado mundial de smartphones, precedido por China e India, pero es el primero en la franja de más de 500 dólares. Esta es la apuesta de Huawei: para afianzar su perfil, ha dejado en manos de sus compatriotas los segmentos bajo y medio del mercado, concentrándose en la gama alta, que además de dar lustre a la marca proporciona márgenes superiores. El Mate 10 Pro, en principio apalabrado con AT&T, lleva cámara dual desarrollada por Leica y es en este momento el único smartphone disponible que puede presumir de llevar un procesador capaz de procesar internamente machine learning con funciones de traducción y reconocimiento de imagen.

El P20 [sucesor del P10] que supuestamente llevará tres cámaras, además de otros rasgos sorprendentes, quizás podría anunciarse en el Mobile World Congress de febrero o, más probablemente, evitar el choque con el Galaxy S9, de Samsung, y reservar un lanzamiento estelar en Europa a finales de marzo. Quizá para entonces AT&T esté preparada para subirse al tren, lo que también depende de cómo hayan ido las ventas del iPhone X, el modelo más caro del momento.

La cancelación del acuerdo no deja de ser un serio problema para Richard Yu, que confiaba en AT&T para remontar los márgenes de beneficio de su división, declinantes en 2016 en razón de las fuertes inversiones en I+D. Yu ha dicho en varias entrevistas que el papel del mercado estadounidense es vital para dar alcance a Samsung y Apple en el segmento más rentable. El esfuerzo para ascender en la cadena de valor es evidente: según informes de Canalys, los modelos ´de bandera` representan el 34% de los despachos de Huawei, cinco veces más que en 2012. Durante este quinquenio, su cuota en el segmento de más valor ha pasado del 0,1% al 8%, permitiendo elevar el precio medio de 183 a 321 dólares.

Las partes no han dado por muertas las conversaciones, pero es poco probable que AT&T de un paso al frente mientras tenga abierto un contencioso con el gobierno. Mientras tanto, Huawei seguirá vendiendo en Estados Unidos a través de su canal online el modelo P10 – y los de su segunda marca, Honor, dejando que el comprador contrate la línea con un operador.

¿Queda la alternativa de negociar con otro operador? En teoría, sí. Pero los antecedentes no ayudan. Años atrás, Huawei acabó en malos términos con T-Mobile, tercer operador del mercado estadounidense. Podría, tal vez, intentarlo con el líder, Verizon, pero la red de este tiene todavía un gran remanente de la tecnología CDMA, que no es propicia a la estrategia de la compañía china. Lo que no se puede negar es que esta tiene una paciencia infinita.

9 de enero, 2018

Feliz año. Se va uno de vacaciones pensando que al retorno podrá recurrir a un repaso suave de noticias con las que recuperar gradualmente el ritmo de publicación. Esa era mi intención, hasta que explotó una información insoslayable, que toca de lleno el siempre abierto y siempre sensible asunto de la ciberseguridad.

En la agenda de Brian Krzanich, CEO de Intel, están marcadas en enero cuatro apariciones públicas, la primera hoy mismo en el marco del CES. En todas ellas, se le escuchará y juzgará por las explicaciones que dé sobre la situación de la compañía tras la incontrolada revelación de dos graves vulnerabilidades en sus procesadores. Como poco, le van a hacer estas tres preguntas: 1) ¿estaba preparada Intel para proteger su base instalada de los fallos de seguridad que acaban de conocerse?, 2) ¿qué pasará con los lanzamientos previstos de nuevos procesadores y, en consecuencia, qué impacto espera sobre los ingresos de 2018?, y 3) ¿cómo explica el haber vendido 39 millones en acciones cuando ya conocía la existencia de esos fallos y su previsible efecto sobre la cotización?

De Meltdown y Spectre me ocupo en dos crónicas sucesivas, la primera de ellas hoy mismo. Aquí me limitaré a comentar la torpe reacción inicial de Intel al constatar que el secreto había escapado de jaula. Con el primer comunicado, un banal ejercicio de relaciones públicas, se intentaba disimular el problema pretextando, entre otras cosas, que lo sufre toda la industria.

Aunque fuera cierto, que no lo es, es evidente que Intel es el primer perjudicado, debido a su cuota dominante de mercado y porque todos sus procesadores lanzados desde 2011 llevan en sus entrañas estas dos vulnerabilidades. A la vista de las críticas, Intel rectificó y difundió un paper de alto contenido técnico. Todo hay que decirlo: por torpe que fuera al principio, contrasta con la deliberada vaguedad de AMD, que parece convencida de que cuanto más se hable (mal) de Intel, mejores oportunidades tendrá en su larga rivalidad.

Como se explica en la crónica de hoy, Intel ha decidido que los parches para Meltdown y Spectre se distribuyan dentro de las actualizaciones de sistemas operativos, lo que otorga un papel esencial a Microsoft. Es una vía lógica, pero tal vez no sea suficiente para restaurar la confianza de los usuarios, que tendrán un motivo para tomarse con calma la inversión en hardware que pudiera contener el mismo fallo supuestamente resuelto.

El próximo día 25, al presentar los resultados de 2017, Krzanich será asaltado con preguntas sobre los chips que estaban en el programa de este año. Se espera el anuncio de una nueva ´hoja de ruta` destinada a corregir el problema y enderezar el rumbo de la demanda. Bienvenida sea la transparencia.
Intel lleva cicatrices de otras situaciones de crisis, y tiene recursos – y clientes leales – suficientes para salir de esta. Pero, más allá de los fantasmas de la seguridad, la compañía tiene otro frente abierto: tras un período de irrelevancia, AMD se ha apuntado el año pasado sendos éxitos con sus nuevas familias Ryzen y EPYC, que compiten mano a mano con las equivalentes de Intel.

Algunos analistas – entusiasmados con las especificaciones de EPYC – se creen autorizados a pronosticar que AMD arrebatará cuota de mercado a Intel en los chips para servidores. Desde luego, puede ocurrir, en el contexto de una contracción general de ese mercado, que durará al menos un par de trimestres. Desde el punto de vista de AMD, toda porcentaje de cuota podría representar cientos de millones de dólares en ingresos este año, además de una inyección de respeto entre clientes e inversores.
¿Año de nieves, año de bienes? Ojalá,

22 de diciembre, 2017

Adelanto una conclusión posible, por si no les apetece llegar al final del texto: el gobierno francés no discursea con agendas digitales inverosímiles sino que diseña y aplica políticas que propician la existencia de ´campeones nacionales` con capacidad para competir en la escena global de la economía digital

Paso ahora a los detalles de cómo y por qué el grupo de electrónica y aeroespacial Thales llegó a cerrar la compra de Gemalto, por la que desembolsará 4.800 millones de euros, una prima del 57% sobre la cotización al 8 de diciembre. Una oferta previa del grupo Atos por 500 millones menos, ha quedado fuera de carrera. Thales, participada en un 26% por el Estado francés, es una pieza clave de la industria militar del país (otra, Dassault, es propietaria de un 25%), y su PDG (président-directeur général) Patrice Caine persigue afanosamente la diversificación hacia dominios civiles, que lo ha llevado a invertir más de 1.000 millones en la adquisición de empresas especializadas en conectividad. ciberseguridad, análisis de datos e inteligencia artificial.

La incorporación de Gemalto – conocida principalmente por su liderazgo mundial en las tarjetas SIM, chips NFC y sistemas de cifrado – brinda a Thales la oportunidad de agrupar todos sus activos digitales en una nueva unidad de negocio autónoma, que llevará la marca de Gemalto y será dirigida por el actual presidente de esta, Philippe Vallée. Se pretende que esta unidad de negocio, por su volumen de facturación, sea uno de los tres grandes proveedores de soluciones de ciberseguridad, con especial énfasis en biometría.

Se da la circunstancia de que Gemalto, jurídicamente una compañía holandesa, tiene también entre sus accionistas a un ente público francés que posee el 8% del capital. Según Le Monde, sería inconcebible que una operación de esta naturaleza se cerrase “sin el consentimiento del Eliseo [jefatura del Estado], Matignon [sede del primer ministro] y Bercy [ministerio de Economía]”.

Thierry Breton, PDG de Atos, ha cometido un error al vender la piel del oso antes de verificar que lo había capturado. Intentó ´puentear` a Vallée, dio a publicidad la oferta de compra un viernes y, convencido como estaba de contar con la bendición gubernamental, emplazó al consejo de Gemalto a aceptarla en cuatro días. Breton no sabía, o lo sabía pero no le importó, que Gemalto y Thales llevaban meses negociando, con lo que su entrada en escena sólo consiguió precipitar un acuerdo.

Oficiosamente, el argumento para justificar la posición del gobierno es que Thales representa una opción más coherencia para la constitución de un potente grupo francés especializado en ciberseguridad, mientras que Atos no deja de ser principalmente una empresa de servicios informáticos. El razonamiento tiene una derivada incómoda: las credenciales militares de Thales han puesto en alerta a las autoridades estadounidenses por si hubiera lugar a objetar la transacción [lo que no ocurriría de ser Atos el comprador].

El error de Breton tendría otra explicación posible: Vallée sería reacio a la oferta de Atos, de modo que el primero trató de explotar sus contactos políticos (fue ministro de Economía entre 2005 y 2007). Ha ganado su  reputación empresarial gracias a éxito de integración de tres  adquisiciones – Siemens Information Systems, Bull y la rama de servicios ITO de Xerox – que explican la fortaleza actual de Atos. Esto, a su vez, pudo transmitir la idea de que una vez cerrada la compra, desmantelaría la estructura de Gemalto y tal vez externalizaría alguna de sus actividades.

El grupo Thales se estructura en cinco mercados verticales de electrónica (aeronáutica, espacio, transporte terrestre, defensa y seguridad). La adición de Gemalto será un refuerzo para esta última, sin excluir las sinergias que pudiera encontrar con las otras cuatro. La combinación sumará más de 28.000 ingenieros y 3.000 investigadores. Taxativamente, ha garantizado la estabilidad de la plantilla de Gemalto – amenazada de recortes – hasta finales de 2019.

Las sinergias económicas no están tan claras como las tecnológicas, pero Caine estima que pueden alcanzar los 3.000 millones de euros en ingresos anuales. Gemalto, por su lado, estaba necesitada de un rescate: por sus propios medios no conseguiría romper un período de ingresos planos (2.100 millones en nueve meses este año) y rentabilidad decreciente, situación que hacía problemático destinar recursos a I+D para desarrollar nuevas áreas de negocio.

21 de diciembre, 2017

Los resultados trimestrales de Oracle me dan la oportunidad de reparar una omisión. En octubre, atrapado por otros asuntos, no llegué a comentar el cierre de su año fiscal 2017 ni los anuncios de OpenWorld. Los mismos analistas que se extasiaban en octubre con la progresión del negocio cloud de Oracle, ahora se toman a la tremensa el hecho de que pasen de crecer un 51% en el primer trimestre a ´sólo` un 44% en el segundo.

Es cierto que la ralentización del crecimiento desmiente la sobreactuación de Larry Ellison y sus lugartenientes en cada presentación de resultados. La cifra de ingresos de Oracle en el segundo trimestre fue de 9.620 millones, un 6% de crecimiento que es un punto inferior al de un año antes. Lo más significativo – y no es la primera vez que lo escribo aquí – es que la cifra de negocios es la misma de hace tres años, pese a que entretanto Oracle ha seguido comprando empresas que contribuyen a sus ingresos. Por lo tanto, tiene un problema de crecimiento orgánico.

Hay que poner el foco en el negocio cloud porque de él depende el futuro de la compañía. Veamos: en el trimestre septiembre-noviembre aportó 1.500 millones de dólares, de los que 1.100 millones corresponden a las aplicaciones como servicio. Al mismo tiempo, los ingresos por licencias on premise crecían un 3% hasta 6.300 millones. Hechas las cuentas, el cloud representa el 16% de los ingresos y el negocio tradicional un 65%.

La decepción de los críticos obedece a que la propia compañía prevé para el tercer trimestre: un rango del 2/4% de crecimiento, en el que subyace un 21/25% en los ingresos generados por la nube. Tras una secuencia de 51 y 44% sabe a poco, de eso no hay duda. Históricamente, podría verse como una fluctuación razonable, si no fuera porque la otra consecuencia es una caída sistemática de los márgenes, no sólo los de la nube de Oracle sino los de todas las nubes existentes. Nadie en sus cabales esperaría otra cosa.

Se trata de un asunto recurrente, familiar a los lectores de este blog. Oracle necesita un círculo virtuoso: reconvertir su negocio de toda la vida al modelo cloud y hacerlo a un ritmo no disruptivo: que el entrante compense la caída del saliente. La táctica de ventas conocida como BYOL (bring your own license) puede ayudar atrayendo ingresos frescos, pero es un equilibrio delicado. Para que así ocurra, piensan no pocos analistas, Ellison & Co tendrán que repetir la jugada que ha hecho tantas veces: ya que los ingresos orgánicos han crecido un 6% seis años, reforzarse con una adquisición que aporte ingresos inorgánicos, preferentemente en la nube.

Ahora bien, que una parte del crecimiento sea aportada por el negocio tradicional no tiene por qué ser malo: la venta de licencias había declinado y ahora crece ligeramente. Sería exagerado hablar de una ´canibalización` inversa, pero es un signo de fidelidad de la clientela.

Quienes piensan que Ellison está obsesionado con Amazon Web Services porque factura tres veces más que la nube de Oracle, no van lo bastante lejos. Precisamente en ese contexto hay que apuntar la principal novedad de OpenWorld, la Base de Datos Autónoma (OADB) con la que Oracle promete mejor rendimiento y costes operativos más bajos que los de Amazon Web Services. Un segundo salto hacia la nube de su base de datos después del tímido intento de 2015.

Ahí está la clave, tal como yo lo veo. Ellison convoca a sus tropas a defender las murallas contra la ´invasión bárbara` que ataca por dos frentes: 1) AWS ofrece en condiciones favorables su propia base de datos Redshift a los clientes de Oracle que decidan migrar cargas a su infraestructura cloud, y 2) más pronto que tarde, AWS llevará su ambición a competir en las aplicaciones como servicio.

Retomo un comentario del mes de marzo: “la estrategia de Oracle es probablemente la única solución para combatir cualquier tentación de sus clientes de pasarse a la nube de algún competidor”.El competidor que Ellison tiene designado como enemigo tiene nombre propio. Durante la conferencia del jueves 14, el fundador de Oracle habló poco pero dijo algo contundente. Cortó de raíz una pregunta que iba dirigida a Mark Hurd para ilustrar así a los analistas: “[…] OADB se ajusta y actualiza sin intervención humana; en caso de detectarse una vulnerabilidad, se desconecta automáticamente […] las bases de datos de AWS son incapaces de hacer lo mismo”. Y remató así la faena: “lo repetiré para que se me entienda. Quien mueva una carga desde Redshift a OADB, verá reducida su factura en un 80%, y no estoy hablando de TCO sino de facturas, la suya contra la nuestra. Dicho de otro modo, a un cliente de Oracle le costará cinco veces más pasarse a Amazon”. No conozco mejor evidencia de cuál será la batalla fundamental de Oracle en 2018.

11 de diciembre, 2017

40% de aumento en cuatro horas. Una cotización multiplicada por 17 en once meses. Sólo los ingenuos o los especuladores niegan que el bitcoin es una burbuja. Los primeros, por una cuestión de fe: creen en la intrínseca capacidad ´disruptiva` de las criptomonedas; los segundos, por avaricia: es una oportunidad de beneficio que ningún otro activo puede igualar. El pasado viernes, el bitcoin cruzó la barrera de las 17.000 unidades por dólar (según Coinbase) habiendo iniciado el año a 968 dólares. A saber qué pasará esta semana y las siguientes y las subsiguientes.

Con esas cifras, el bitcoin ha ido mucho más lejos que cualquier burbuja del pasado. Sin ir más lejos, la de las puntocom, nuestra contemporánea.  En su momento culminante, año 2000, el índice Nasdaq marcaba una ratio precio/beneficio de 175; la pasada semana, la media comparable de los mercadillos virtuales en los que cotiza el bitcoin, era de 708. Puede decirse que, si la única referencia fuera su valoración, el boom del bitcoin seria  cuatro veces más explosivo que aquellos años locos de Internet.

En realidad, el precio del bitcoin es anecdótico, una fuente inagotable de titulares, un tema de sobremesa. De las burbujas – entendidas como valoración excesiva e insostenible de activos – lo importante no es tanto el precio cuanto el hecho de que expresan una ruptura de oferta. La de las puntocom fue el resultado de que a mediados de los 90 había relativamente pocas acciones cotizadas de empresas de Internet, muy pocas para el frenético deseo de los inversores de subirse al tren de Internet.

Entre 1998 y 2000 se produjo la salida precipitada a bolsa de empresas inmaduras y enmascaramiento oportunista de otras no vinculadas con Internet. Unos ganaron dinero y otros se arruinaron. Volverá a ocurrir, pero ¿cuándo?

Como buenos creyentes, los apologistas del bitcoin replican que la escasez programada impedirá que ocurra, porque el algoritmo fundacional impide poner en circulación más de 21 millones de unidades [por cierto, ya supera los 16 millones]. La inflación del precio no les preocupa porque, incluso a su cotización actual, la “masa monetaria” (sic) sería de unos 350.000 millones de dólares, mientras que la capitalización bursátil de Apple se acerca a los 900.000 millones y la de todas las acciones que cotizan en EEUU supera los 20 billones. Siguiendo este razonamiento, el estallido de la nueva burbuja sería, comparativamente, una pedorreta.

El argumento finge ignorar que el bitcoin ha engendrado imitadores, entre ellos Ethereum, con reputación de alternativa ´seria` al original. La web Coinmarketcap contabilizaba la semana pasada 1.337 monedas virtuales que se negocian en 7.224 “mercados”. ¿A alguien le parece racional?

El precio del bitcoin – como el de cualquiera de sus alternativas virtuales – no responde a una lógica económica convencional. En cierto modo, refleja fuerzas sociales que hemos visto en acontecimientos de los últimos años. Como las políticas populistas, canaliza la pérdida de confianza en las instituciones y en la autoridad intelectual de los expertos: la crisis financiera ha desacreditado al sistema bancario y a los economistas del serrallo. En este caldo graso flotan las hipótesis de “uberización” o “amazonización” de las finanzas, dos tópicos de la jerga techie.

Resulta necesario disociar la ´bitcoinmania` de su fundamento conceptual, la tecnología blockchain. Es concebible que, así como los cheques son residuales, el plástico ha desplazado al dinero en efectivo y la banca online a las colas en la oficina bancaria, el futuro nos depara más transacciones basadas en registros descentralizados. Lo improbable es que las monedas virtuales desalojen a las monedas fiduciarias. Como medio de pago, son inferiores, excepto para quienes buscan opacidad; consecuentemente, no amenazan la existencia de las que tienen el respaldo de bancos centrales y, en última instancia, de los estados.

Si juzgamos al bitcoin como activo de inversión, su principal característica es la volatilidad (ver gráfico). No se gana atesorando código sino movíéndolo a corto; así se comportan los especuladores e ingresan comisiones los intermediarios.

Mientras la moda siga ascendente, nadie perderá su dinero; incluso habrá quienes se arrepientan de haber vendido. Pero tanto partidarios como detractores de las criptomonedas son conscientes de que la situación no es sostenible. A quienes invierten en activos virtuales, no les interesan los dividendos ni el cash flow ni preguntan por el business plan. Simplemente suponen que antes del temido naufragio alguien estará dispuesto a pagar lo que un bitcoin no vale intrínsecamente.

En la práctica, no es necesario reconocerle legitimidad como “dinero” para que los bancos saquen beneficio arbitrando en transacciones con una moneda que sólo existe como un apunte contable encriptado. Esto explica por qué JP Morgan, cuyo chairman Jamie Dimon promete despedir a cualquier empleado que trafique con bitcoins, participa como socio en la creación de un mercado de futuros.

En efecto, empiezan a proliferar las entidades dedicadas a la negociación sobre posiciones futuras en bitcoin (GDAX, CME, etc) calcadas de las que existen para materias primas que, estas sí, existen físicamente. No hay precedentes que ayuden a calcular el riesgo; los bancos discrepan entre sumarse a la corriente o esperar a que el fenómeno se asiente..

Habría mucho más que decir. Lo que este comentario quiere sugerir es que, lejos de ser una muestra de vigor – como cree mi amigo Rodolfo – la aparición de instrumentos financieros derivados multiplicará el riesgo de quedar pillado en un esquema piramidal.

5 de diciembre, 2017

Hace hoy siete días, la conferencia europea HPE Discover, celebrada este año en Madrid, brindó la excepcional ocasión de reunir en torno a una mesa a Meg Whitman junto a Antonio Neri, la CEO saliente de HPE y su sucesor, dispuestos a responder las preguntas de cinco periodistas de sendos medios españoles (entre ellos el que suscribe) al margen de la rueda de prensa internacional prevista. Necesariamente, tenía que ser un encuentro breve, en una salita del backstage, pautado a razón de dos preguntas por cronista.

Me fastidia confesar que resultó una ocasión desperdiciada. No veo el interés de plantear a directivos de este calibre una seguidilla de preguntas anodinas sobre el mercado español, para culminar en la ingenuidad de suponer que a Whitman o a Neri se les podría pillar dando un titular sobre Cataluña (sic). En cuanto me concierne, transcribo a continuación mis dos preguntas y sus correspondientes respuestas

Pregunta. En 2011, nadie hubiera imaginado la trayectoria que seguiría la historia de HP.  ¿Barruntaba algo acerca del tamaño idóneo o creía posible mantener la integridad de la compañía? Por otro lado, ¿es suficiente el tamaño actual de HPE para sostener la estrategia que deja como legado? Finalmente, ¿no teme que con el valor bursátil actual resulte vulnerable ante una eventual oferta de compra?

Meg Whitman. Un viaje como el que hemos hecho durante estos seis años no era predecible. Ni creo que nadie en mi lugar pudiera prever los profundos cambios que iban a vivir la industria y el mercado. Tuvimos que alinear nuestras estructuras con el descenso de los ingresos, reiniciar el motor de la innovación, reorganizar los equipos directivos, reparar la situación del balance y ajustarnos a las nuevas direcciones que seguía la industria. Nos llevó cuatro años y condujo a la separación en dos compañías, que culminamos con éxito para las dos partes separadas. Más tarde, ya desde HPE, tuvimos que rediseñar la estrategia y finalmente optamos por segregar los negocios de servicios y software que no eran esenciales. También acometimos una serie de adquisiciones que a usted le constan. Nada de todo ello estaba en mi cabeza en 2011.

Lo destacable es que lo hicimos al mismo tiempo que restaurábamos la creación de valor para los accionistas. Hoy, HPE es una compañía con 26.000 millones de dólares de ingresos y una capitalización de más de 20.000 millones y que tiene capacidad para generar cashflow suficiente para seguir invirtiendo en innovación y para hacer nuevas adquisiciones. Lo que usted sugiere es que HPE podría ser adquirida… Lo único que puedo responder es que la industria tiende a la consolidación, pero no creo que ocurra en los cinco o seis años venideros. Antes, cada gran compañía tendrá que ejecutar la estrategia que se ha trazado; HPE tiene la suya. Si me pide un pronóstico, creo que seguirá siendo una compañía independiente por el tiempo que soy capaz de prever.

Pregunta. Se ha sostenido que después de sucesivas desinversiones y adquisiciones, HPE es esencialmente una compañía de hardware. Para replicar el argumento, no habría más que ver la cantidad de software que se ha mostrado en este Discover. ¿Cree que, en el contexto actual de la industria, es viable para una empresa como esta progresar sin contar con una rama propia de software suficientemente fuerte?

Antonio Neri. Ante todo, nuestros productos de infraestructura son, sin excepción, software-defined. En cambio, hemos renunciado a tener software de aplicaciones. De hecho, tras cerrar los acuerdos con CSC y con MicroFocus, las mayores inversiones que estamos haciendo se centran en software y servicios. Lo que es perfectamente compatible con el hecho de que el 60% de nuestros ingresos proceden de la infraestructura; porque se trata de una infraestructura distinta de la que se comoditiza rápidamente.

En consecuencia, vamos a enfocarnos en lo que llamamos high value, que es donde están las oportunidades reales de crecimiento. El 95% de nuestra propuesta de infraestructura componible es software y sólo el 5% es hardware. Asimismo, estamos poniendo a disposición los servicios profesionales necesarios para que el valor que reciben los clientes se traduzca en resultados de su negocio.

Piense en Aruba, una adquisición brillante que hemos integrado con una gran eficacia. En realidad, es una compañía de software que vende unas antenas fenomenales; tiene tres plataformas de software. Con la compra de SGI hemos incorporado muchísima propiedad intelectual que es esencialmente software. Nimble Software nos ha aportado su software InfoSight, que habrá podido ver hoy aquí. En setiembre hemos comprado Cloud Technology Partners, y así vamos a seguir actuando, tanto orgánica como inorgánicamente. No es veraz el argumento de que somos una compañía de hardware; la infraestructura es el vehículo necesario para el delivery de lo que los clientes están buscando.

30 de noviembre, 2017

Cisco y VMware siguen desde hace tiempo trayectorias de colisión. Tiene lógica, porque ambas necesitan adoptarse a una realidad que difiere de las respectivas historias. Los centros de datos se alejan de las arquitecturas convencionales de networking y reconvierten la infraestructura hacia fórmulas basadas en software: sería un milagro que este fenómeno mereciera titulares, incluso en los medios tecnológicos.

Es bien sabido que las TI se desplazan hacia la nube – computación, almacenamiento, aplicaciones… pero ¿qué efecto tiene ese movimiento sobre el mercado de networking? Todo en las redes de los centros de datos y en los campus corre en esa misma dirección. Es una de las razones por las que gana preponderancia el concepto de edge, de imprecisa traducción pero que implica lo que está más allá del perímetro del datacenter [por ejemplo, sucursales u oficinas remotas conectadas a este pero dotadas de capacidades propias]. Este es un discurso usual en la industria.

Con lo anterior he intentado vincular  dos noticias. La más reciente: a principios de noviembre, VMware acordó la compra de VeloCloud, que se cerrará antes de finalizar el año. Esta operación  puede verse como una respuesta a la adquisición de Viptela por Cisco el pasado mayo. La clave de la jugada está en que ninguna de las dos quieren quedar descolgadas de un mercado emergente, conocido como SD-WAN (software-defined wide-area networks). Ha llegado a mis manos un informe de IHS Markit que estima el valor del mercado en 137 millones de dólares este año. Antes de pensar que es una birria, téngase en cuenta que se espera un crecimiento hasta 3.300 millones en 2021. O hasta 8.000 millones en en el mismo plazo, según IDC.

Con independencia de que las cifras sean correctas o no, conviene aclarar que la previsión de crecimiento obedece a la proliferación de conexiones entre localizaciones distantes. No sólo entre sucursales, que era lo habitual, sino sobre todo en las infraestructuras de los proveedores de servicios hosting y cloud. Al estar basada en software, esta tecnología ofrece una flexibilidad que no tiene el hardware dedicado para WAN. Sin embargo, la mayor parte de los ingresos actuales proceden de la venta de appliances asociados a esa práctica.

En lo sucesivo, “una proporción creciente será aportada por el software de control y gestión de esas redes, en la medida que se va generalizando la visibilidad de las aplicaciones y se adoptan servicios analíticos”, explica Cliff Grossner, autor del informe de IHS Markit. El punto de inflexión debería producirse en 2018, dice, con despliegues que abarcarán un mayor número de sitios por red.

El lector sabrá disculparme, porque el asunto no es fácil de digerir para un ignorante como yo. Lo he creído necesario para entender por qué empresas como Cisco y VMware se baten en este duelo y por qué otros competidores participan o quieren participar del baile.

Por si no ha quedado claro: las WAN son un elemento crítico de la así llamada transformación digital. Esta es la razón por la que Cisco compró Viptela y que le ha inspirado el anuncio [que espero comentar otro día] de colaboración con Google en un nuevo planteamiento de nubes híbridas. Por su lado,  VMware, con un acuerdo vigente con Amazon Web Services tendrá en VeloCloud un aliciente para profundizarlo. Esta misma semana se ha podido comprobar con la participación en reInvent, el evento anual de AWS en Las Vegas.  O sea que estamos hablando de estrategia de competición, pura y dura.

En concreto, SD-WAN es un mercado – en pleno despegue, como he dicho – en el que proliferan startups que, llegada la hora de la adolescencia, no ven más futuro que aceptar una oferta de compra que, al mismo tiempo, asegure la continuidad de sus fundadores. Pasó con Viptela, por la que Cisco pagó 610 millones de dólares y pasa ahora con VeloCloud, que tras recaudar 84 millones en cuatro rondas – curiosamente, Cisco contribuyó con 27 millones a una de ellas – ha llegado a la conclusión de que “no podríamos encontrar mejor compañera de viaje que VMware”, en palabras de su locuaz CEO Sanjay Uppal.

Creada hace cuatro años en Mountain View, VeloCloud acumula unos 600 clientes y más de 50.000 sitios desplegados. Uno de los atractivos que presenta para VMware es que en esa clientela hay más de 50 proveedores de servicios, entre ellos tres telecos bien conocidas: AT&T y Sprint en Estados Unidos, y Telstra en Australia.

Es notorio que en el punto de mira de VMware están los operadores de telecomunicaciones, particularmente aquellos que se involucran en los servicios cloud. La compra de VeloCloud le permite extender NSX a una WAN y equipararse a la condición de compañía de software como servicio.

El producto de VeloCloud actúa como un ´orquestador` que toma las cargas de trabajo de una WAN on-premise y permite a los usuarios definir a qué otra WAN asignarla. La compañía también dispone de gateways en los grandes proveedores cloud para asegurar la fluidez del tráfico. Según se ha dicho, VMware tiene previsto usar la tecnología de VeloCloud para suministrar una red virtual única que enlace tanto las aplicaciones en una nube privada como los dispositivos en su periferia con una nube pública.

Esto va, por tanto, esencialmente, de una batalla entre Cisco y VMware, que se ha centrado hasta ahora en la rivalidad entre ACI y NSX, con evidente liderazgo de la primera. Sin embargo, esa rivalidad ha sido atenuada porque son productos que sirven distintas necesidades de un datacenter: NSX provisiona los servicios de red dentro del entorno virtualizado clásico de VMware mientras ACI distribuye las aplicaciones entre los switches de Cisco. Ahora, por primera vez,  puede aspirar VMware a mostrar una oferta que compite con dos adquisiciones sucesivas de Cisco: Meraki y Viptela. En su presentación de anteayer en Madrid, el cofundador de Aruba, Keerti Melkote, insinuó que es intención de esta filial de HPE  entrar en la misma guerra.

22 de noviembre, 2017

Durante meses, a medida que se hinchaba el dislate independendista en Cataluña, crecía la duda – políticamente secundaria pero no anecdótica – acerca del futuro del Mobile Congress. Mejor dicho, sobre la permanencia del MWC en Barcelona. La exaltación identitaria llevó a los dirigentes del proceso a desinteresarse del asunto, al igual que ninguneaban el riesgo de fuga de empresas. La fallida candidatura a acoger la Agencia Europea del Medicamento ha confirmado el error:  era obvio para cualquiera que la UE, forzada por el Brexit a retirar de Londres ese organismo, no se lo adjudicaría a la capital de un Estado imaginario.

A lo que iba: este blog se ha ocupado del MWC desde la primera hora y es natural que me pregunte si Barcelona corre un riesgo real de perder esta feria. Sí. Tampoco era imaginable que Caixabank trasladaría su sede a Valencia o el Banco de Sabadell  la suya a  Alicante. La diferencia, en todo caso, es la existencia de un contrato entre la GSMA – ente organizador – y la Fira de Barcelona – anfitriona – vigente hasta 2023 pero sujeto a confirmaciones anuales. En una palabra, algo muy grave tendría que ocurrir para que se activasen las cláusulas de rescisión unilateral.

La convocatoria de elecciones autonómicas no despeja la incertidumbre. Consciente del valor que el MWC aporta a la economía barcelonesa, el presidente de la Cámara de Comercio, Miquel Valls, ha tomado la iniciativa de proponer – hasta ahora informalmente – a Kim Faura, delegado de Telefónica en Cataluña, como candidato a presidir la Fira. La intención es transparente: preservar el contrato y, eventualmente, preparar su renovación.

Faura goza de reconocimiento por su talante componedor, una cualidad necesaria para tranquilizar al factotum de la GSMA, Johm Hoffman, quien en años anteriores ya tuvo alguna bronca con la autoridad municipal a cuenta de las huelgas de transporte coincidentes con las fechas de la feria. Sin embargo, las buenas intenciones chocan con las circunstancias políticas.

La Fira tiene un estatuto de gobierno tripartito entre Ayuntamiento, Cámara y Generalitat [citados en orden alfabético] con la peculiaridad de que la Cámara tiene en exclusiva el derecho de proponer al presidente de la institución, mientras que el Ayuntamiento tiene el derecho, también exclusivo, de vetar la candidatura. No puede ignorarse que el rol de la Generalitat no es pasivo, como pudiera parecer.

La Fira – y por extensión el MWC, que es de lo que aquí me interesa – ha sido pillada a contrapié por la evolución del ´procés`. El mandato de su presidente, José Luis Bonet – presidente de Freixenet – ha caducado sin que se haya nombrado sustituto. En su día, la Cámara presentó la candidatura de un empresario del transporte local, rechazado por el consistorio: (extraoficialmente, por la preferencia de que el cargo fuera ocupado por una mujer).

Con este antecedente, Valls pretende consensuar con la alcaldesa, Ada Colau, sus candidatos – cuatro consejeros, además del presidente – objetivo que se antoja complicado en el actual clima político. Colau está en minoría en el consistorio por las reverberaciones de la crisis en la Generalitat, y por consiguiente necesita contar con votos de los grupos soberanistas. En esta corriente política, nadie se ha atrevido a descalificar a Faura, pero un fundamentalista me dijo la semana pasada (en Barcelona precisamente) que “sería poco apropiado nombrar al frente de la Fira al delegado en Cataluña de una empresa española” (sic).

Mientras en la marmita catalana se cocía el ´procés`, la presidencia de la Fira pudo parecer asunto menor. Hasta que empezó a airearse la posibilidad de perder a medio plazo la sede del Mobile World Congress, que es de lejos la mayor y más rentable de las actividades del recinto ferial. ¿Hay prisa? No exactamente, pero sería bueno que la Fira normalizara su funcionamiento antes del MWC 2018, convocado para el 26 de febrero. Al día siguiente, habrá que pensar en el de 2019. Las elecciones autonómicas y las negociaciones consiguientes, podrían retrasar la vuelta a la normalidad institucional.

Ahora, bien: el riesgo de que el MWC se traslade a otra ciudad europea tampoco me parece real. Este congreso llegó a Barcelona en 2006, escapando de las insuficiencias de Cannes, su primera sede. Europa tenía un peso determinante en la industria: en Europa se incubó el estándar 3G y abundaban las empresas y marcas líderes. De hecho, las instalaciones de Montjuic se quedaron pequeñas, y la primera renovación del contrato en 2011 estimuló la construcción de las magníficas instalaciones de la Fira Gran Vía.

Es lógico suponer que el mercado marque la pauta a un acontecimiento con aspiraciones globales. En 2015, escribí: “hasta el nombre de Mobile World Congress se ha quedado pequeño […] Esta era una feria de teléfonos móviles que todavía no presumían de inteligencia; había marcas europeas que han desaparecido; las compañías chinas venían a aprender”. Desde entonces. el MWC se ha convertido en el mayor foro de discusión sobre una industria polifacética que gusta hablar de movilidad más que de móviles”.

Han pasado más cosas: la descentralización del MWC, una adaptación al mercado, supone multiplicar sus ediciones con sendas ferias en San Francisco y Shanghai. Una por ser el referente de la tecnología y la otra por ser China el centro industrial por excelencia, a la vez que el primer mercado del mundo. No tienen todavía el alcance y repercusión de la edición europea, pero esto no significa que Barcelona tenga garantizada la continuidad.

Aun así, opino con conocimiento de causa que ninguna ciudad europea sería una alternativa comparable a Barcelona. Londres y París cuentan con unos recintos feriales desangelados y distantes, el de Milán se ha quedado pequeño y anticuado; la opción de Berlín sería en principio viable siempre y cuando, por razones climáticas, se alterara el calendario, lo que dista de ser sencillo. Estos factores podrían servir los intereses de Barcelona, sumados a su evidente atractivo. Pero antes, ay, habrá que demostrar una voluntad política inequívoca, sin cálculo ni ambigüedad.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2019 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons