Facebook era estupenda hasta que dejó de serlo. No lo digo yo, cuidado. Lo dicen Sean Parker, Alex Stamos, Chamath Palihapitiya o Antonio García-Martínez. Todos ellos fueron ex-directivos de alto nivel de Facebook, una empresa que está viendo cómo algunos de los que la ayudaron a convertirse en lo que es hoy se rebelan ahora contra ella y contra la filosofía imperante en Silicon Valley.
Eso ha hecho que se pongan en marcha iniciativas como el Stanford Internet Observatory, que tratará de ayudar a resolver "el impacto negativo que la tecnología puede tener en nuestra sociedad". Un impacto que para estos ex-directivos es claro. Como dijo Sean Parker, "solo dios sabe qué es lo que Facebook le está haciendo al cerebro de nuestros niños".
Una lucha por la transparencia
Alex Stamos fue CSO (Chief Security Officer) en Facebook hasta hace pocos meses, y ha sido el último en criticar abiertamente la forma de actuar no solo de Facebook, sino de muchas otras empresas de Silicon Valley.
En una reciente conferencia Stamos abandonaba su retiro para hablar de los problemas que detectó en su puesto en Facebook, pero también aprovechó para anunciar la creación del llamado Stanford Internet Observatory, la agencia que tratará de aunar los criterios de académicos, políticos y directivos de empresa tecnológicas para trabajar en esos problemas que afectan a esta industria.
La idea, comentaba Stamos, es la de compartir datos y proporcionar mayor transparencia y responsabilidad a los retos de la seguridad informática de todas esas empresas.
Stamos sabe bien de lo que habla: estaba al frente de la estrategia de ciberseguridad en Facebook cuando explotó el escándalo de las fake news y la influencia de esas noticias falsas en las elecciones de Estados Unidos de 2016. Según revelan en The Washington Post, Stamos no estaba de acuerdo con la forma en la que otros responsables de Facebook combatieron la campaña de desinformación rusa y esa avalancha de noticias falsas.
Para este ex-directivo ese desastre ha hecho que en Silicon Valley se hayan hecho esfuerzos para evitar impactos similares, pero avisaba: hackers extranjeros podrían aún alterar el resultado de unas elecciones en Estados Unidos.
Ante técnicas 'hack and leak' —robar correos de altos cargos políticos para filtrar progresivamente datos que minen sus campañas— lo único que se puede hacer es minimizar el riesgo desactivando cuentas falsas que se coordinan para difundir desinformación.
Facebook se deshizo de 583 millones hace meses, y Twitter también está trabajando en este ámbito aunque de momento sus esfuerzos parecen infructuosos: el 80% de las cuentas que se usaron para difundir información falsa en las elecciones de 2016 siguen activas en esa red.
Stamos se une a otros ex-directivos de grandes tecnológicas
Los riesgos a los que nos exponen las empresas tecnológicas han comenzado a ponerse de manifiesto en los últimos tiempos en los que incluso ellas mismas han querido tratar de relajar nuestra dependencia de la tecnología. Google introdujo en Android 9 Pie sus opciones para lograr ese 'bienestar digital' que nos haga usar menos el móvil, y otras como Facebook o Apple han dado algunos pasos en este sentido.
Las herramientas están ahí y son un buen paso por parte de esas grandes, y aunque puedan aparecer suspicacias —las empresas se tiran piedras a su propio tejado con estas opciones— lo cierto es que las medidas son de agradecer ahora que esos riesgos de un uso excesivo de móviles y servicios como redes sociales están comenzando a verse reflejados en tendencias social y moralmente cuestionables.
Esa es parte de la amenaza que los más críticos con Facebook plantean desde hace tiempo. Sean Parker, inversor en Napster y más tarde en Facebook, alertaba de cómo esta red social trabaja en sistemas que crean adicción al usarlos. Parker se mostraba preocupado por el daño que eso puede hacer a las nuevas generaciones. Como en otros casos los comentarios son irónicos, sobre todo teniendo en cuenta que Parker, como el resto de ex-empleados que critican a la empresa, se hicieron millonarios gracias a ella.
En esa misma línea se situaba en diciembre de 2017 Chamath Palihapitiya, que trabajó como vicepresidente de crecimiento de usuarios y que tras salir de la empresa declaró sentirse "tremendamente culplable" por la empresa que había ayudado a crear.
Antonio García-Martínez, que fue también directivo de Facebook en su división publicitaria, explicaba en mayo de 2017 cómo la empresa trataba de usar a toda costa la gigantesca cantidad de datos que recolecta para influir en los usuarios y hacer que estos "piquen" y se vean influidos por cierta publicidad o ciertos contenidos.
Muchos de los datos recolectados no sirven para nada, destacaba, pero "ocasionalmente, si se usa de manera muy inteligente, con mucha iteración de aprendizaje automático y pruebas y errores sistemáticos, el vendedor puede encontrar la mezcla adecuada de edad, geografía, hora del día y gustos musicales o cinematográficos que demarcan a un ganador demográfico de una audiencia. El "índice de clics", para utilizar el lenguaje del anunciante, no miente".
En Xataka mi compañero Cristian Rus ya habló de cómo esa autorreflexión de ex-directivos de grandes empresas tecnológicas se había convertido en algo cada vez más común: los que crearon ciertas tecnologías buscan acabar ahora con nuestra dependencia de ellas. Allí hablábamos del Center for Humane Technology que trata de defendernos de los peligros de la tecnología desde la aproximación al entorno educativo.
Lo cierto es que esas personalidades mantienen un discurso muy parecido al que Stamos planteaba estos días. El poder e influencia con el que cuentan empresas como Facebook, Apple o Google es enorme, y conviene evaluar sus políticas y sus términos de uso constantemente para vigilar que las decisiones que toman —y que afectan a cientos de millones de usuarios— son coherentes y aceptables y no amenazan el funcionamiento de nuestra sociedad —por ejemplo, manipulando procesos electorales— ni a los propios usuarios —poniendo en juego su privacidad o influyendo sobre sus decisiones—.
Como decía Spidey, un gran poder conlleva una gran responsabilidad. De momento es buena señal que incluso aquellos que ayudaron a captar todo ese poder se den cuenta de que al hacerlo debe haber ciertos mecanismos de supervisión, control y transparencia.