lunes, 17 de septiembre de 2018

El importante problema a resolver que hay detrás de todos los quebraderos de cabeza de Facebook

En junio de 2016, el joven de 28 años Antonio Perkinsretransmitió su muerte al mundo entero de forma no intencionada. Perkins estaba compartiendo con sus contactos por Facebook Live el maravilloso día que hacía en Chicago, mientras hacía cosas mundanas. Pero, después de seis minutos de retransmisión, recibía un disparo que le dejaba tendido en el suelo. La muerte de Perkins fue notificada ese mismo día. El vídeo llegó a millones de personas.


“En Facebook conectamos a las personas… Quizás cueste una vida por exponer a alguien a los matones. Quizás alguien fuera en un ataque terrorista coordinado con nuestras herramientas. Y seguiremos conectando a las personas. La verdad desagradable es que creemos en conectar a las personas tan profundamente que cualquier cosa que nos permita conectar a más gente más a menudo es, por sí misma, buena“, señalaba Andrew Bosworth, uno de los vicepresidentes de la compañía, en un memorándum interno que circuló por Facebook tras el fallecimiento de Perkins.


Una carta en la que ni siquiera se hacía mención al joven fallecido. Pero es un ejemplo de eso que Bosworth denominó “la verdad desagradable”. Por muy trágica que fuera la muerte de Perkins, lo cierto es que el vídeo no violaba los estándares de la compañía, puesto que ni glorificaba la violencia ni celebraba el sufrimiento o la humillación de terceras personas. Y no eliminarlo significaba que muchas más personas podrían conectar con Perkins y, al fin y al cabo, con Facebook.
Esta decisión es una de las muchas que la compañía ha tomado últimamente y que han dejado con un mal sabor de boca a muchos usuarios. Pero no es la única.
Desde la injerencia en las elecciones estadounidenses de 2016 mediante la recolección sin permiso de datos personales al hecho de servir como facilitador de los conflictos raciales en muchos países, pasando por la targetización discriminatoria, lo cierto es que últimamente la reputación de la red social de Mark Zuckerberg no está en su mejor momento.
Pero Facebook no quería que todo esto ocurriera. Su única intención era conectar a las personas. A pesar de este hecho, según Qz.comFacebook es realmente malvado. No en su propósito. Lo es de la forma más banal posible.
El propósito de la compañía de “conectar a las personas” se deja la esencia personal por el camino. Para Facebook, el mundo no está hecho de individuos, está hecho de conexiones entre ellos. No son “personas”, son “usuarios”. Por ello no está mal recolectar datos, targetizar o monetizar, siempre que el objetivo sea fomentar las conexiones.
Cuando el memorándum interno se hizo público, tanto Bosworth como Zuckerberg quisieron desvincularse de él. “Nunca hemos creído que el fin justifique los medios”, señalaba el CEO de la red social. Pero, una y otra vez, sus acciones han hablado por ellos. Como hablan por él sus últimas declaraciones sobre el negacionismo del Holocausto.
Ya en 2010, Jaron Lanier escribió en su libro You Are Not a Gadget que, con Facebook, “la vida se convirtió en una base de datos“. Es decir, la vida se convierte en un gran sistema de información con una misión.
El problema, según Lanier, es que no hay nada especial en la base de datos sobre los humanos que la componen. Son tan solo datos. Y los humanos son todos ellos diferentes, no pueden ser reducidos a un grupo de datos.
No es la primera vez que una organización falla al dejar de considerar la humanidad de los otros. Ha sido el gran fallo que ha propiciado algunos de los peores desastres de la historia, incluyendo el Holocausto. Una incapacidad de ponerse en la piel del otro, de pensar en su sufrimiento. Si el proyecto se puede cumplir, no importan los costes asociados.
Facebook parece estar ciego ante su imposibilidad de admitirque también puede ser utilizado para fines deplorables. Pero los escenarios más impensables suceden, no porque Facebook quiera dañar a nadie.
Por otro lado, en la carta que Zuckerberg escribió el pasado mes de febrero admitía que habían cometido errores. Pero señalaba: “Estos errores por lo menos nunca fueron causados por mantener una ideología política”. Y es cierto.
Las redes sociales siempre se han intentado posicionar como bastiones ideológicamente neutrales, que tan solo transmiten las ideas de otros. Pero una organización no necesita tener ideología para causar daño. Tan solo necesita dejar de pensar en las personas y sentirse cómodo con la violencia religiosa, la discriminación étnica, el discurso del odio o las muertes retransmitidas en directo, entre otras cuestiones.
Recientemente, Facebook ha querido dejar caer parte de la importancia de las conexiones. Ha cambiado su meta, que ahora es “hacer que el mundo esté más cerca”. También anunció que eliminaría posts violentos en determinados países. Pero quizás no sea suficiente.
“Tenemos que poder tomar partido cuando están en juego problemas claramente morales o humanitarios“, escribía su propio security officer, Alex Stamos. La solución no es crear una policía del pensamiento. Es cambiar el punto de vista.
Hasta ahora, Facebook ha dado pasos hacia delante bastante positivos. Pero no parecen el resultado de una búsqueda interior por el propósito, sino de una presión constante y una pérdida en términos de relaciones públicas. Es decir, Facebook solo hace lo correcto cuando se le obliga. Para evitar que esto siga asiendo así, Facebook tendrá que tener a su lado a líderes capaces de frenar su natural optimismo tecnológico cuando hay realidades humanas en juego.

No hay comentarios:

Publicar un comentario