Facebook y la locura de la autorregulación

El nuevo panel de revisión de la compañía está diseñado para moverse lentamente y mantener las cosas intactas

Guardar
Facebook reveló los líderes y
Facebook reveló los líderes y los primeros 20 miembros de su nueva junta de revisión (Foto: REUTERS/Dado Ruvic/Ilustración/Archivo)

MI DIFUNTO COLEGA, Neil Postman, solía preguntar sobre cualquier nueva propuesta o tecnología: “¿Qué problema propone resolver?”

Cuando se trata de Facebook, ese problema era mantener relaciones durante un vasto tiempo y espacio. Y la compañía lo ha resuelto espectacularmente. En el camino, como Postman habría predicho, creó muchos más problemas.

La semana pasada, Facebook reveló los líderes y los primeros 20 miembros de su nueva junta de revisión. Son una colección de algunas de las mentes más agudas que han considerado cuestiones de libre expresión, derechos humanos y procesos legales.

Representan un estrato de intelectuales cosmopolitas, al tiempo que parecen generar cierta apariencia de diversidad global. Estos distinguidos académicos, abogados y activistas están encargados de generar una deliberación de alta mentalidad sobre lo que es y no apropiado para ser alojado por Facebook. Es un buen aspecto para Facebook, siempre y cuando nadie lo mire demasiado de cerca.

La junta de supervisión se
La junta de supervisión se centrará en los temas de contenido en áreas como el discurso de odio, el acoso y la protección de la seguridad y la privacidad de las personas (Foto: REUTERS/Dado Ruvic)

¿Qué problemas propone resolver la nueva junta de revisión de Facebook?

En un artículo de opinión en The New York Times , el nuevo liderazgo de la junta declaró: “La junta de supervisión se centrará en los temas de contenido más desafiantes para Facebook, incluso en áreas como el discurso de odio, el acoso y la protección de la seguridad y la privacidad de las personas. Tomará decisiones definitivas y vinculantes sobre si se debe permitir o eliminar contenido específico de Facebook e Instagram (que posee Facebook)".

Sólo de la manera más estrecha y trivial es que esta placa tiene tal poder. El nuevo panel de revisión de Facebook no tendrá influencia sobre nada que realmente importe en el mundo.

Escuchará solo apelaciones individuales sobre contenido específico que la compañía ha eliminado del servicio, y sólo una fracción de dichas apelaciones. La junta no puede decir nada sobre el contenido tóxico que Facebook permite y promueve en el sitio. No tendrá autoridad sobre la publicidad o la vigilancia masiva que hace que los anuncios de Facebook sean tan valiosos. No frenará las campañas de desinformación o las conspiraciones peligrosas. No tiene influencia sobre el tipo de acoso que ocurre regularmente en Facebook o WhatsApp (propiedad de Facebook). No dictará políticas para los grupos de Facebook, donde prospera gran parte del contenido más peligroso. Y lo más importante, la junta no tendrá voz sobre cómo funcionan los algoritmos y, por lo tanto, qué amplifica o amortigua el verdadero poder de Facebook.

Esta junta ha sido aclamada como un gran experimento en gobierno corporativo creativo. La profesora de derecho de la Universidad de St. John, Kate Klonick, la académica más familiarizada con el proceso que generó este consejo, dijo : "Esta es la primera vez que una empresa transnacional privada ha asignado voluntariamente una parte de sus políticas a un organismo externo como este".

Un tercio de la humanidad
Un tercio de la humanidad usa la plataforma regularmente (Foto: Shutterstock)

Ese no es exactamente el caso. Los grupos industriales han practicado durante mucho tiempo dicha autorregulación a través de organismos externos, con resultados infamemente mixtos. Pero no hay un grupo de la industria que establezca estándares y reglas para Facebook. Un tercio de la humanidad usa la plataforma regularmente. Ninguna otra compañía ha estado tan cerca de tener ese nivel de poder e influencia. Facebook es una industria, y por lo tanto un grupo industrial, en sí mismo. Sin embargo, esto no tiene precedentes, porque Facebook finalmente controla el panel, no al revés.

Hemos visto esta película antes. En la década de 1930, la Motion Picture Association of America (MPAA), bajo el liderazgo del ex director general de correos estadounidense Will Hays, instituyó un código estricto que prohibía que los principales estudios de Hollywood mostraran, entre otras cosas, “bailes que enfatizan movimientos indecentes”. El código también aseguró que “el uso de la bandera [de EE. UU.] Se respetará constantemente”. En la década de 1960, las costumbres culturales estadounidenses se habían ampliado, y los directores exigieron más libertad para mostrar sexo y violencia. Entonces, la MPAA abandonó el código de Hays y adoptó el sistema de clasificación familiar para los cinéfilos estadounidenses (G, PG, PG-13, R, NC-17).

Una de las razones por las cuales la MPAA pasó de prohibiciones estrictas a advertencias A los consumidores fue que los tribunales estadounidenses habían ampliado la protección de la Primera Enmienda para las películas, limitando la forma en que los gobiernos locales podían censurarlas. Pero todo el tiempo, la MPAA practicó una forma explícita de autorregulación, utilizando un cartel que representaba los intereses de los estudios más poderosos sobre el comportamiento policial y representaba a la industria en su conjunto ante los reguladores y el público.

Nadie puede mirar la historia del cine estadounidense y argumentar seriamente que cualquiera de los métodos de autorregulación realmente sirvió al público . Las normas se han aplicado de manera descuidada e inconsistente. A través tanto del código de Hays como del sistema de calificación, la MPAA limitó la expresión artística y la representación de temas e historias de lesbianas, gays y transgénero. Pero seguro ayudó a Hollywood al mantener a raya a los reguladores.

La autorregulación es una excelente
La autorregulación es una excelente manera de aparecer para promover valores particulares y mantener el escrutinio y la regulación al mínimo (Foto: Shutterstock)

Relevante para la comparación de Facebook, la MPAA aplica los estándares estadounidenses de decencia para establecer sus calificaciones, mientras que la industria cinematográfica es una potencia transnacional. Los estudios son mucho más sensibles a las demandas del gobierno de la República Popular de China que al Senado de los Estados Unidos. Lo mismo se puede decir de Facebook: usar la dicción estadounidense sobre la “libre expresión” y las formas de pensar estadounidenses para influir en una empresa global es una locura. Es uno de los principales errores que Facebook cometió internamente hace años.

Muchas industrias y asociaciones profesionales han utilizado el poder del cartel para autorregularse, o al menos crear la apariencia de hacerlo. La American Bar Association otorga acreditación a las escuelas de derecho y, por lo tanto, dicta el contenido y la calidad de la educación jurídica. También establece un código ético para la práctica de abogados. Este es un poder sustancial más allá del alcance del estado.

Pero, como hemos visto en las industrias mineras y textiles mundiales, las declaraciones de seguridad laboral y estándares salariales no significan mucho en la práctica. La autorregulación es una excelente manera de aparecer para promover valores particulares y mantener el escrutinio y la regulación al mínimo.

Cuando la autorregulación logra mejorar las condiciones para los consumidores, los ciudadanos o los trabajadores, lo hace mediante el establecimiento de órganos deliberativos que pueden actuar con rapidez y firmeza, y generar códigos de conducta claros y exigibles. Si un estudio de cine comienza a esquivar el proceso de clasificación, la MPAA y sus otros miembros pueden presionar a los cines y otros canales de distribución para que dejen de mostrar las películas de ese estudio. La MPAA también puede expulsar a un estudio, privándolo del capital político generado por las décadas de contribuciones de campaña y cabildeo de la asociación.

El panel de Facebook no
El panel de Facebook no puede generar un código de conducta general por sí solo (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

El panel de Facebook no tiene tal poder. No puede generar un código de conducta general por sí solo, o considerar los peores escenarios para asesorar a la compañía sobre cómo minimizar el riesgo de daños. Eso significaría actuar como una verdadera junta asesora. Lo que está castrado desde el principio porque alguien tuvo la estúpida idea de que debería desempeñar un papel cuasi judicial, examinando los casos uno por uno.

Sabemos que el proceso será lento y laborioso. Los procesos judiciales falsos pueden parecer deliberativos, pero son estrechos por diseño. El atributo central de la ley común es el conservadurismo. Nada puede cambiar rápidamente. Los tribunales establecen la ley mediante el acto de adherirse a decisiones anteriores. La tradición y la previsibilidad son valores fundamentales. Así es la estabilidad por el bien de la estabilidad.

Pero en Facebook, como en los conflictos mundiales y étnicos, el entorno es tumultuoso y cambia todo el tiempo. Los llamados a la violencia de masas surgen, aparentemente de la nada. Toman nuevas formas a medida que cambian las culturas y las condiciones. Facebook se mueve rápido y rompe cosas como la democracia. Este panel de revisión está diseñado para moverse lentamente y preservar cosas como Facebook.

Dicho panel de revisión proporcionará una solución crujiente, idealista y simplista a un problema trivial. Las cosas que Facebook elimina crean un inconveniente para algunas personas. Facebook comete muchos errores, y lidiar con la burocracia de Facebook es casi imposible. Pero Facebook no es todo Internet, y mucho menos todo el ecosistema de información. Y Facebook no es la única forma en que las personas se comunican y aprenden cosas (todavía).

Por importante que sea este
Por importante que sea este valor, el deber de proteger tanto a los usuarios de Facebook como a la propia empresa exige atención a valores competitivos como la seguridad y la dignidad (Foto: Archivo)

La anécdota más notable que inspiró la idea de este foro fue la fotografía de 1972 de Kim Phúc, de 9 años, huyendo de un ataque de napalm estadounidense en Vietnam. Cuando, en 2016, el periódico noruego Aftenposten incluyó la imagen en una historia, Facebook le pidió al periódico que eliminara o pixelara la imagen porque violaba la regla general contra la desnudez en el sitio. Después de mucho alboroto, Facebook restauró la imagen. Entonces, en última instancia, la controversia no importó. Problema resuelto. E incluso sin Facebook, hay cientos de fuentes de la misma imagen y cuentas profundas de su importancia histórica. Desde entonces, Facebook ha intentado ser más agresivo en sus prácticas de eliminación de contenido y más atento sobre los estándares que utiliza. La junta de revisión es una extensión de alto perfil de ese esfuerzo.

La cuestión booleana de si, por ejemplo, una fotografía que alguien publicó permanece "en Facebook" es trivial. Esa pregunta es un vestigio de un modelo de "libertad de expresión" del siglo XVIII, e ignora las diferencias de poder y cómo funciona el habla en el mundo real. Fue un mal modelo para evaluar la salud de la comunicación hace más de 200 años. Es absurdo ahora, en la era de los algoritmos opacos.

La junta de revisión inicial no incluye a nadie con experiencia en confrontar la amplificación algorítmica de propaganda o desinformación. No tiene antropólogos ni lingüistas. De los 20 miembros, solo uno, Nicolas Suzor, de la Universidad Tecnológica de Queensland en Australia, es un experto académico internacionalmente reconocido en las redes sociales. En otras palabras, se estableció y designó para favorecer un único valor: la libre expresión. Por importante que sea este valor, el deber de proteger tanto a los usuarios de Facebook como a la propia empresa exige atención a valores competitivos como la seguridad y la dignidad.

Los 20 integrantes originales de
Los 20 integrantes originales de la junta incluyen cinco estadounidenses (Foto: REUTERS/Johanna Geron)

Esta junta también está repleta de un número desproporcionado de estadounidenses que tienden a ver estos problemas a través de la historia legal y los conflictos estadounidenses. Los 20 integrantes originales incluyen cinco estadounidenses, ninguno de los cuales tiene un conocimiento profundo de cómo funcionan las redes sociales en todo el mundo.

La idea misma de que la junta podría marcar la más mínima diferencia en cualquiera de los conflictos de vida o muerte que se desarrollan en Facebook todos los días es absurda.

En contraste, la junta tiene solo un miembro de la India, el país con más usuarios de Facebook que ningún otro. India alberga más de 22 idiomas principales y 700 dialectos. La nación mayoritariamente hindú tiene más ciudadanos musulmanes que cualquier otro país, excepto Indonesia, junto con millones de budistas, cristianos, judíos y bahai. Facebook y WhatsApp han sido desplegados por violentos nacionalistas hindúes (alineados estrechamente con el gobernante Partido BJP de la primera ministra Narendara Modi, la política más popular en Facebook) para aterrorizar a musulmanes, cristianos, periodistas, académicos y cualquier persona que critique los esfuerzos del gobierno central para hacer de la India una teocracia brutal y nacionalista.

¿Está este consejo preparado para considerar la amplitud y profundidad de los problemas que amplifica Facebook en India, y mucho menos en Pakistán, Sri Lanka, Bangladesh o Myanmar? El único miembro de la junta de la India, Sudhir Krishnaswamy , es un reconocido estudioso del derecho y defensor de los derechos civiles. Pero, ¿cuántos de esos 22 idiomas sabe? ¿Sería capaz de analizar los matices lingüísticos y culturales de un insulto étnico expresado en marathi, el idioma de 83 millones de personas en el estado de Maharashtra; o cingalés, el idioma principal de 17 millones en la República de Sri Lanka?

En la India hay casi
En la India hay casi 300 millones de usuarios habituales de Facebook y 1.200 millones de habitantes (Foto: Archivo)

Dado que hay casi 300 millones de usuarios habituales de Facebook en un país con 1.200 millones de personas, ¿cómo Krishnaswamy guiaría el proceso de elegir entre las miles de quejas que seguramente vendrán de esta población creciente y agitada? La idea misma de que la junta podría marcar la más mínima diferencia en cualquiera de los conflictos de vida o muerte que se desarrollan en Facebook todos los días es absurda.

Pregúntese: “¿Qué de la autoridad de esta junta podría salvar vidas en Myanmar?” La respuesta es nada. “¿Qué de la autoridad de esta junta podría minimizar los ataques coordinados en el funcionamiento de las democracias de todo el mundo?” La respuesta es nada. “¿Qué de la autoridad de esta junta podría limitar el acoso coordinado de activistas, periodistas y académicos por parte de los principales partidos políticos?” La respuesta es nada. “¿Qué de la autoridad de esta junta podría limitar la capacidad de Facebook para registrar y utilizar cada aspecto de sus movimientos e intereses?” La respuesta es, por supuesto, nada.

En última instancia, este foro no influirá en ninguna de las cosas que hacen que Facebook sea Facebook : escala global (2.500 millones de usuarios en más de 100 idiomas), anuncios dirigidos (habilitados por vigilancia) y amplificación algorítmica de cierto contenido en lugar de otro contenido. El problema con Facebook no es que una fotografía haya sido bajada esa vez. El problema con Facebook es Facebook.

Un artículo publicado en el diario Wired por Siva Vaidhyanathan

MÁS SOBRE ESTE TEMA

Guardar