publicidad
  8/07/2019

Joaquín Quiñonero Candela

Director de Applied Machine Learning en Facebook

Abundan los motivos por los que Facebook está permanentemente en el candelero. El más fresco en la memoria es su controvertido proyecto de criptomoneda. Cuando no es la polémica sobre la privacidad de los datos personales, el  otro asunto recurrente es que su penetración global está siendo usada (y abusada) para la manipulación política y la intoxicación informativa. Esta práctica, que desde Estados Unidos se ha bautizado como fake news, parece inmune a todos los intentos de control. La confianza en que los usuarios darían la alerta no ha funcionado; tampoco la contratación masiva de revisores de contenidos. El último recurso sería la Inteligencia Artificial.

Joaquín Quiñonero Candela

En torno a estas cuestiones, Facebook ha puesto a trabajar febrilmente su cada vez más numeroso equipo científico, cuyo exponente más conocido es el francés Yann LeCun, gran especialista en redes neuronales. Recientemente, la compañía convocó en su sede de París – uno de los cuatro centros de investigación sobre IA que tiene alrededor del mundo –  una sustanciosa jornada para periodistas europeos. Ese fue el contexto de la siguiente entrevista con quien dirige los trabajos de Facebook en materia de machine learning aplicada, el español Joaquín Quiñonero.

Simplificando su presentación de hoy, el problema de los problemas reside en fenómenos como las noticias falsas, la desinformación o las interferencias electorales, para las que Facebook está sirviendo de vector involuntario. ¿Qué papel puede jugar la IA para resolver estos problemas?

La moderación de contenidos viene a ser la clave que sintetiza los asuntos que usted menciona […] Sencillamente, no es viable a la escala necesaria sin la contribución de la IA. Pero también diré que esas cuestiones han puesto de manifiesto la tensión entre dos valores que son esenciales para Facebook. Uno es nuestro compromiso de dar la palabra a todos los usuarios, el otro es la obligación de proteger a las personas y las comunidades de aquello que sea perjudicial en algún sentido individual o colectivo. Por tanto, estamos ante un grave problema social para el que no existe ninguna respuesta equilibrada, para el que no hay soluciones neutras.

publicidad

[…] agravado por la escala que ha alcanzado Facebook…

No específicamente, pero la escala importa. Cuando en una plataforma se comparten muchos miles de millones de comunicaciones o de piezas de contenido, no es humanamente posible [nota: un adjetivo muy bien traído] contar con un número suficiente de profesionales que puedan revisarlas para identificar violaciones de los estándares fijados por la comunidad o por las regulaciones. Con lo cual el problema llega a ser  imposible de resolver a escala sin la ayuda de herramientas como la IA.

De la dicotomía verdad/mentira o falso/verdadero es fácil pasar a los sesgos subjetivos y de ahí a una posible manipulación, ¿Es ahí donde puede o debería intervenir la IA?

En la realidad hay poquísimos casos en los que el concepto de verdad absoluta o mentira absoluta esté tan claro como quisiéramos. Por este motivo es fundamental un ciclo cerrado que combine inteligencia artificial con inteligencia humana. En mi opinión, la IA tiene una limitación básica: sólo puede resolver aquellas tareas que se le pide que resuelva.

Vuelvo al aspecto intencional, porque estamos hablando de actuaciones concertadas y ataques deliberados, no de errores espontáneos.  

Uno puede pensar en algoritmos que ayuden a detectar cuándo hay un ataque coordinado a una escala que una comunidad de profesionales expertos probablemente no detectaría. Por ejemplo, si alguien altera levemente un contenido y para propagarlo se vale de cientos o miles de cuentas falsas de Facebook, sería extremadamente difícil para una comunidad de individuos detectar esa actividad. En cambio, resulta fácil para la IA detectar que ese contenido es similar y repetitivo, que ha sido alterado… y detectar que el comportamiento de esos cientos o miles de cuentas es una anomalía.

[…] identificando un patrón de conducta

Eso es, la IA puede detectar patrones de comportamiento, sucesos que están pasando muy velozmente y a una escala casi infinita. Pero lo que la IA no tiene es capacidad de juicio para resolver situaciones complejas. Esta es la razón por la que acaba siendo una herramienta que permite centrar la atención de los humanos en los problemas más importante, como un instrumento de priorización de tareas: se especializa en aquello que puede hacer bien. Una vez se juntan el cómputo hecho de los humanos y el cómputo hecho por máquinas, obtienes un resultado impresionante, mucho más de lo que podrías obtener por separado.

Todos los esfuerzos de detección mediante la revisión humana no han dado los resultados esperados. ¿Cómo lo explica?

Si el propósito es evitar que cierto número de usuarios publiquen y/o propaguen noticias falsas, estaremos de acuerdo en que no hay una definición universalmente compartida de lo que es una fake news, ¿vale?. Lo hemos probado casi todo para identificar qué tipos de señales nos permitan distinguir lo verdadero de lo que – aun siendo falso – se nos presenta como si fuera fidedigno. Ahora bien, tenemos que partir de la premisa de que, en principio, todos los contenidos son merecedores del mismo tratamiento. Si estamos de acuerdo en esto, aún nos queda reconocer que cualquier comunidad de revisores de contenidos incluirá diferentes sensibilidades que tendrán múltiples puntos de vista, puede que contradictorios, sobre hechos verificados. Una parte importante del proceso consiste en estar seguros de que no pasamos por alto el riesgo derivado de algún sesgo.

Se supone que esos revisores son escogidos con criterios objetivos […]  

Sí, sí. Pero cualquier comunidad de fact checkers, por muy serios que sean sus miembros, puede estar relativamente condicionada por múltiples factores: geografía, género, edad, ideología, etc. Lo hemos visto hace muy poco en las elecciones en India, un caso único en el mundo por tratarse de un país tan diverso, con muchas regiones y diferencias lingüísticas, en el que las comunidades locales tienen un rol en la formación de la opinión. La preocupación de Facebook era prevenir riesgos de interferencia, por lo que era importante que la IA, combinada con la revisión humana, fuera capaz de manejar esa extrema complejidad. Tengo que decir que hemos salido airosos de la prueba.

Gracias por la explicación, pero se impone preguntar ¿quién controla?

Controlan los humanos, evidentemente. Esta es la razón por la que se necesita una disciplina tremenda para aceptar que la matemática no tiene todas las respuesta ni concretamente la que buscas; tener procesos que involucran a humanos, que sea la sociedad humana la que toma las decisiones.

Esto nos lleva a otro asunto. De ser un área de interés académico, la ciencia de datos, la IA ha saltado al mundo de los modelos de negocio, aunque esta evolución  no contenta a todos. ¿Esto implica que la academia ha perdido la iniciativa? Al privilegiar los productos o servicios  susceptibles de monetización, ¿acaba la ciencia subordinándose al negocio?

No, absolutamente no. En primer lugar, la IA es lo que los economistas llaman una tecnología de uso general, porque está transformando todos los sectores de la sociedad prácticamente sin excepción […] Evidentemente, las empresas la van a utilizar para crear un valor que no existía o se explotaba como tal: un parte de ese valor se va a monetizar, pero las preguntas que surgen no pueden ser respondidas solamente por la industria.

¿Se refiere a la colaboración entre universidades y empresas?

No sólo a eso. Estamos viendo el surgimiento de una variedad de  colaboraciones entre grupos multidisciplinarios. Yo, en mi terreno, estoy contratando a filósofos, expertos en ética, científicos sociales […] Mucha de esa gente está en la academia y se queda en la academia porque las colaboraciones se diseñan de tal forma que pueden venir a Facebook y comprender en qué problemas estamos trabajando. Pero también se están creando departamentos de ética y filosofía muy próximos a los grupos que se ocupan de IA. Lo vivo como un momento intelectualmente muy estimulante […]

Este no es un negocio intensivo en capital, por lo que han proliferado las startups que trabajan en IA. Cabría preguntarse cuál es su viabilidad […]

Una forma de preguntarlo tiene que ver con la dependencia de los datos como condición para que una startup sea viable. Personalmente he visto  que, cuando voy a una conferencia sobre IA, la cantidad de trabajos que se presentan es enorme y provienen tanto de la academia como de empresas, en muchos casos son colaboraciones entre ambos campos. Otra cosa que empieza a ser habitual es que, en beneficio de todos, se publican muchos conjuntos de datos para que pueda utilizarlos la comunidad.

[…] mi pregunta era sobre el destino de tanta startup

He visto muchas que han sido exitosas. Por definición, una startup tiene éxito cuando arriesga, cuando decide que una determinada área de trabajo es importante y quizás otros no se habían dado cuenta de que iba a ser importante. Y también cuando se especializan en temas punteros: por ejemplo, he conocido startups de visión computacional que han sido pioneras en su aplicación a los coches autónomos.

Una de las controversias más agudas es el reconocimiento facial. ¿Qué posición tiene Facebook  sobre esta aplicación de la IA? 

Bueno… en cierto modo es más sencillo para Facebook que para otros grupos que trabajan en ese ámbito, porque el uso que hacemos de la tecnología de reconocimiento facial es transparente para el usuario, al que le damos control absoluto y le explicamos con claridad los límites de su privacidad. Ahora bien, más allá de Facebook, es razonable preguntarse es qué pasa cuando un algoritmo de reconocimiento facial cae en manos de organizaciones públicas o privadas que no hacen usos transparentes ni autorizados.

Pues eso, ¿qué pasa?

Para mí, es un ejemplo perfecto de por qué la colaboración entre los que crean tecnología y los que diseñan políticas embebidas en ellos. No estará de más recordar que la mayoría de esos problemas no son tan nuevos como se cree. Hasta confeccionar un censo de población provoca debates a favor o en contra […] Lo digo por ejemplificar que algunos asuntos precedentes toman un valor nuevo a causa de la IA.

Hay diferentes enfoques sobre qué hacer con la IA; el de Google no es igual al de Facebook y el de Amazon no es el mismo que el de Microsoft, por no hablar de empresas chinas como Baidu y Tencen[…]

Son líneas convergentes. Y cuando digo convergentes quiero decir que son colaborativas. ¿Por qué los investigadores publican sus papers? En primer lugar porque la única forma de saber si tu trabajo tiene mérito es exponerlo a la crítica […] Segundo, por lo que hemos hablado antes, por un sentido de responsabilidad hacia la sociedad; finalmente, por un motivo que no es trivial: cuando eres investigador en IA tienes opciones de ir a trabajar a distintos sitios y eliges aquellos que te permiten publicar y colaborar con terceros.

¿Hay muchas fugas desde la academia a las empresas?

Son ciclos pendulares. En los diez últimos años se ha producido un trasvase: muchos que fueron compañeros en la universidad y a quienes yo no hubiera imaginado fuera del ámbito académico, hoy trabajan en la industria. Esto es bueno para todas las partes, porque muchos de ellos mantienen su filiación universitaria y es posible que vuelvan. Quién sabe si yo volveré a la universidad algún día. Ciclos así se han visto en otras disciplinas, como la microelectrónica, a mediados del siglo pasado.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2019 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons