En las audiencias ante el Comité Judicial y el de Comercio del Senado de los Estados Unidos, Mark Zuckerberg por un momento abandonó su argumento histórico de Facebook como una plataforma que no es responsable de los contenidos que publican sus usuarios y, por ende, no lo es de las noticias falsas, ni de las operaciones de los agentes rusos, ni de las derivaciones de apps como This Is Your Digital Life, ni del discurso violento contra los rohingya en Myanmar, ni de los videos con ejecuciones de ISIS, etcétera.
—En el pasado nos han dicho que plataformas como Facebook, Twitter, Instagram y otras son neutrales. ¿Cree usted hoy que no son neutrales, sino que tienen alguna responsabilidad por su contenido? —le preguntó el senador John Cornyn.
—Estoy de acuerdo en que somos responsables del contenido —respondió Zuckerberg, y de inmediato comenzó a hablar de las herramientas de inteligencia artificial (IA) contra el contenido no deseado, de modo que trasladó así la responsabilidad de Facebook hacia la tecnología. "Y regresó a esta defensa diez veces más antes de que terminara su testimonio", observó BuzzFeed.
"Proponer la IA como solución genera un largo período durante el cual el problema no se enfrenta, durante el cual la respuesta de Facebook a lo que pasa es 'Estamos trabajando en ello'", dijo a esa web Mark Riedl, investigador de IA en Georgia Tech.
La autora de la nota, Davey Alba, explicó de qué modo apoyarse en la IA para eliminar el contenido problemático permite que la red social "nunca asuma completa o directamente la responsabilidad por lo que pasa en la plataforma". ¿Noticias falsas? "El algoritmo necesita más entrenamiento sobre datos de contexto", ilustró. ¿Incitación a la violencia en Myanmar? La IA no es lo suficientemente buena y sufre por la barrera del lenguaje.
Aunque "existe una tendencia a concebir la IA como una autoridad moral neutral", Riedl advirtió que "los prejuicios humanos se pueden infiltrar en los conjuntos de datos y en los algoritmos". Es decir, que los algoritmos pueden configurarse mal y necesitar ser corregidos. No solo los prejuicios humanos se pueden convertir en código: también pueden fallar porque no se los puede aplicar con idéntica eficiencia "entre usuarios de diferentes antecedentes, en diferentes países con diferentes culturas y a través de contextos brutalmente diferentes", resumió Alba.
Además, la IA podría estar en la base misma del problema de Facebook. Bart Selman, que enseña esa disciplina en la Universidad de Cornell, recordó que "los algoritmos de IA operan al hallar formas inteligentes de optimización de un objetivo preprogramado". Y cuando Facebook "ordena a los algoritmos del feed que optimicen la 'adhesión e interacción del usuario'", lo que se logra es que si alguien dio like a una publicación que reafirmaba sus ideas, el feed le muestra más de lo mismo. "Entonces, los factores maliciosos advirtieron que podían engañar al sistema, y las noticias falsas y el contenido extremista se convirtieron en un problema", concluyó el texto.
Zuckerberg dijo que desde ahora hasta finales del año su empresa tendrá 20.000 personas trabajando como moderadoras del contenido. Pero no es lo central para él: "Crear herramientas de IA será la manera adaptable de identificar y desmalezar la mayor parte de este contenido dañino", dijo.
"Con su tamaño, Facebook nunca va a abordar completamente su vasto problema de contenidos", concluyó Alba. "La IA para el monitoreo de contenido necesitaría ser cuidadosamente diseñada y monitoreada con los objetivos correctos de intereses humanos en mente", advirtió Selman.
MÁS SOBRE ESTE TEMA: