El fundador y CEO de Facebook, Mark Zuckerberg, defendió el miércoles el derecho a publicar contenidos que niegan el Holocausto, aún cuando él mismo los considera "ofensivos", ya que las personas "no se equivocan intencionalmente".
"Soy judío, y hay un grupo de personas que niegan que el Holocausto ocurrió. Encuentro esto profundamente ofensivo. Pero al final del día, no creo que nuestra plataforma deba retirarlo, porque creo que hay cosas que las diferentes personas no comprenden", argumentó Zuckerberg en una entrevista con el portal Recode.
No creo que sea lo correcto decir: ‘Vamos a sacar a alguien de la plataforma si se equivoca, incluso si lo hace varias veces’
"No creo que ellos se estén equivocando intencionalmente. Es difícil impugnar la intención y entenderla", explicó el creador de la red social más popular del mundo, la cual se encuentra bajo escrutinio global por su capacidad para diseminar contenidos ofensivos y noticias falsas y promover mensajes de odio.
"Tan horrendos como estos ejemplos son, la realidad también es que yo me equivoco cuando hablo en público, como todos", comparó. "Tan solo no creo que sea lo correcto decir: 'Vamos a sacar a alguien de la plataforma si se equivoca, incluso si lo hace varias veces'", agregó.
Horas después de la publicación de la entrevista, Zuckerberg emitió un comunicado para intentar clarificar sus declaraciones, asegurando que no había querido "defender las intenciones de las personas que lo niegan [al Holocausto]"
Durante la entrevista, Zuckerberg también explicó su decisión de permitir que el portal de ultraderecha Infowars, famoso por promover teorías conspirativas con información falsa, siga usando Facebook.
"El enfoque que tomamos con respecto a las fake news no es que no puedas decir algo erróneo en Internet, creo que eso sería muy extremo. Todos se equivocan", insistió.
Por tanto, el interés de Facebook no es el de censurar esta página u otras similares, pero sí reducir la distribución de su contenido falso, explicó.
Existe, sin embargo, una "línea roja" para contenidos ofensivos que puedan generar violencia o abusos, los cuales sí son borrados por la red social.
"Vamos hacia una política contra la información que está apuntada a inducir violencia. Si va a resultar en un daño real, un daño físico real, o si es un ataque a individuos, entonces este contenido no debe estar en la plataforma", explicó.
Facebook ha sido fuertemente criticada por su rol en el conflicto sectario en Myanmar, donde la plataforma fue utilizada para promover ataques violentos y matanzas contra la minoría rohingya.
Más recientemente, ha habido brotes de violencia contra los musulmanes en Sri Lanka, en parte generados por publicaciones falsas en Facebook.
Al respecto, la compañía informó el mes pasado que había removido contenidos que diseminaban información falsa sobre un supuesto envenenamiento del agua por parte de musulmanes ceilandeses.
Pero las fake news y el discurso del odio no son los únicos frentes que enfrenta Facebook.
En marzo la prensa británica develó un escándalo de filtración de datos privados de decenas de millones usuarios de la red social a través de un esquema de la consultora Cambridge Analytica, que luego usó para montar "campañas sucias" durante procesos electorales en diferentes partes del mundo.
El suceso provocó un debate global sobre la seguridad de la información personal vertida en diferentes redes sociales, y en especial sobre las prácticas laxas e irresponsables de Facebook.
MÁS SOBRE ESTE TEMA: