La dura crítica de la ex mano derecha de Steve Jobs a Facebook: “Vende la ira como una droga”

Joanna Hoffman consideró que la plataforma social debería hacer más respecto a las publicaciones que incitan al odio

Joanna Hoffman participó en la conferencia CogX 2020 donde se mostró preocupada por el acontecer de protestas en contra del racismo y dijo que plataformas como Facebook no deben "capitalizar la ira" social Foto: (Impresión de pantalla Youtube)

Joanna Hoffman, trabajó en Apple, fue muy cercana a Steve Jobs y es una de las mujeres más respetadas en la industria tecnológica, recién manifestó su preocupación sobre las plataformas sociales como Facebook, que tienen una implicación social perjudicial.

Ella participó en la conferencia CogX 2020, realizada el martes, sobre el liderazgo en la industria de la tecnología pero abordó temas presentes que vive la sociedad norteamericana como racismo y las protestas sociales.

“Al mirar Facebook, por ejemplo, sigo pensando ¿son realmente tan ignorantes o está motivado por algo más oscuro de lo que parece?”, dijo en un panel con ex colegas de la compañía de tecnología de Apple, General Magic, publicó el portal CNBC.

Si bien Hoffman dijo que tenía “un enorme respeto” por lo que Facebook había logrado, sugirió que ciertos aspectos del gigante de las redes sociales estaban “destruyendo el tejido mismo de la democracia, de las relaciones humanas y vendiendo una droga adictiva llamada ira”.

Mark Zuckerberg ha dicho que Facebook no puede ser un árbitro de la verdad Foto: (REUTERS/Erin Scott)

“Es como el tabaco, no es diferente a los opioides. Sabemos que el enojo es adictivo, sabemos que podemos atraer a las personas a nuestra plataforma y lograr que se queden. Entonces, ¿por qué, deberíamos capitalizar eso?”, describió la actual asesora de la empresa tecnológica Sherpa, especializada en inteligencia artificial.

Los líderes son “notablemente ignorantes”

Hoffman también dijo que “el liderazgo es extremadamente importante”, que “las personas marcan una gran diferencia” para una empresa y que sin un “líder que lo reúna todo, al final no habría resultados productivos”.

Sin embargo, agregó que hay qué aceptar que los líderes son seres humanos y, por lo tanto, tendrán errores.

La respetada asesora tecnológica considera que los líderes no siempre dejan buenas prácticas a la sociedad Foto: (Impresión de pantalla Youtube)

“La pregunta es, ¿qué tan defectuoso, ignorante o tortuoso tiene qué ser?”, cuestionó ella.

Consideró que había muchos líderes que eran “genios en lo que habían logrado a una edad muy temprana”, pero agregó que descubrió que eran “notablemente ignorantes de lo que están sembrando en el mundo”.

Una investigación interna de Facebook encontró que la red social fomenta la polarización social

Un grupo de trabajadores de Facebook Inc. lanzó un mensaje contundente para los altos ejecutivos: los algoritmos de la compañía no unen a las personas, al contrario, están hechos para separar a la gente.

Nuestros algoritmos explotan la atracción del cerebro humano hacia la división. Si no se controla”, se advirtió, "Facebook proporcionaría a los usuarios contenido cada vez más divisivo en un esfuerzo por atraer la atención del usuario y aumentar el tiempo en la plataforma”, se lee en una diapositiva de una presentación de 2018 dada a conocer por The Wall Street Journal.

Esa presentación fue al corazón de una pregunta que persigue a Facebook casi desde su fundación: ¿Su plataforma agrava la polarización y el comportamiento tribal? La respuesta que se ha encontrado, desde diversas perspectivas, parece ser afirmativa.

Al interior de Facebook hubo iniciativas en comprender cómo su plataforma moldeó el comportamiento del usuario y cómo la compañía podría abordar los daños potenciales. El presidente ejecutivo, Mark Zuckerberg, expresó en público y privado su preocupación por el “sensacionalismo y la polarización”.

Pero al final, el interés de Facebook fue fugaz. Zuckerberg y otros altos ejecutivos dejaron de lado la investigación básica, según datos internos, y debilitaron o bloquearon los esfuerzos para aplicar sus conclusiones a los productos de Facebook.

El jefe de políticas de Facebook, Joel Kaplan, quien también desempeñó un papel central en la investigación, argumentó que los esfuerzos para hacer que las conversaciones en la plataforma fueran más civiles eran considerados “paternalistas”.

Otra preocupación, dijeron, era que algunos cambios propuestos habrían afectado desproporcionadamente a los usuarios y editores conservadores, en un momento en que la compañía enfrentaba acusaciones por el derecho de parcialidad política.

Facebook reveló pocos detalles sobre el esfuerzo y ha divulgado poco. En 2020, las preguntas que la iniciativa buscaba abordar son aún más agudas, ya que se avecina una acalorada elección presidencial y Facebook ha sido un conducto para las teorías de conspiración y la lucha partidista sobre la pandemia de coronavirus. En esencia, Facebook está bajo fuego por dividir al mundo.

Internamente, el proceso de investigación obtuvo un apodo: “Eat Your Veggies”.

Los estadounidenses se estaban distanciando de los problemas sociales fundamentales mucho antes de la creación de las redes sociales, según mostraron décadas de encuestas del Pew Research Center. Pero el 60% de los estadounidenses también piensa que las compañías tecnológicas más grandes del país están ayudando a dividirlo aún más, mientras que solo el 11% cree que lo están uniendo, según una encuesta de Gallup-Knight en marzo.

La idea de llevar a cabo la investigación comenzó a cambiar a partir de marzo de 2018, cuando Facebook se metió en problemas tras revelarse que Cambridge Analytica, la startup de análisis político, obtuvo incorrectamente datos de Facebook sobre decenas de millones de personas.

En cuanto a la opinión personal de Mark Zuckerberg, la gente que lo escuchó hablar en privado dijo que argumenta que las redes sociales tienen poca responsabilidad por la polarización. Incluso argumenta que la plataforma es, de hecho, “un guardián de la libertad de expresión”.

Solucionar el problema de polarización sería difícil, ya que Facebook debería repensar algunos de sus productos principales. En particular, el proyecto obligó a Facebook a considerar cómo priorizaba la “participación del usuario”, una métrica que implica el tiempo dedicado, los “me gusta”, las acciones compartidas y los comentarios que durante años habían sido la estrella de su sistema.

Incluso antes de la creación de los equipos en 2017, los investigadores de Facebook habían encontrado signos de problemas. Una presentación de 2016 que nombra como autora a una investigadora y socióloga de Facebook, Monica Lee, descubrió que el contenido extremista prosperaba en más de un tercio de los grandes grupos políticos alemanes en la plataforma. Inmersos en contenido racista, conspirador y pro-ruso, los grupos fueron influenciados desproporcionadamente por un subconjunto de usuarios hiperactivos, señala la presentación. La mayoría de ellos eran privados o secretos.

La gran cantidad de grupos extremistas era preocupante, según la presentación. La presentación de 2016 establece que “el 64% de todas las uniones de grupos extremistas se deben a nuestras herramientas de recomendación” y que la mayor parte de la actividad provino de los algoritmos “Grupos a los que debería unirse” y “Descubrir” de la plataforma: “Nuestros sistemas de recomendación aumentan el problema”.

MÁS SOBRE ESTE TEMA: