La información que consumimos online depende en buena medida de las decisiones de moderación y recomendación de contenidos de las plataformas digitales. Las plataformas determinan qué contenidos se recomiendan y cuáles se restringen. Estas decisiones pueden facilitar nuestra experiencia como usuarios y pueden influir en nuestras elecciones.
¿Deberían las plataformas ser responsables legalmente por recomendar o por no eliminar contenidos ilícitos de terceros?
Supongamos que un grupo terrorista utiliza plataformas digitales, como Twitter, Facebook y YouTube, para comunicar contenido extremista, recaudar fondos y reclutar nuevos miembros. Además, supongamos que estas plataformas colocan publicidad sobre los tweets, posteos y videos del grupo terrorista, como parte del modelo de monetización de sus servicios, y que los algoritmos de las plataformas recomiendan los tweets, posteos y videos del grupo terrorista a los usuarios más probablemente interesados en este contenido. En este escenario, ¿sería razonable pensar que las plataformas digitales son cómplices del terrorismo?
Estos fueron los presupuestos fácticos del caso “Twitter c. Taamneh”, que involucraba a Nawras Alassaf, fallecido en Estambul, en 2017, durante un atentado terrorista reivindicado por el Estado Islámico (ISIS). Los familiares de Alassaf demandaron en Estados Unidos a Twitter, Google (que adquirió YouTube en 2006) y Facebook, invocando la Ley de Justicia contra los Patrocinadores del Terrorismo, que extiende la responsabilidad por daños producidos por un acto de terrorismo internacional a cualquiera que haya colaborado en este acto, proporcionando a sabiendas ayuda sustancial. Recientemente, por unanimidad, la Corte Suprema de Estados Unidos rechazó esta demanda.
Para resolver el caso, la Corte tuvo en cuenta que las plataformas parecen ejercer escaso control previo sobre los contenidos publicados por los usuarios y pueden fallar en identificar y eliminar contenido ilícito. Además, para organizar y presentar la enorme cantidad de contenido disponible, las plataformas emplean algoritmos de recomendación que, de forma automática, priorizan unos contenidos frente a otros, relacionando cualquier contenido con cualquier usuario que tenga más probabilidades de verlo. Por ejemplo, un usuario que mira programas de cocina en YouTube muy probablemente reciba recomendaciones de contenido vinculado a la cocina.
En pocas palabras, la demanda contra Twitter, Facebook y YouTube se basó en que las plataformas sabían que ISIS utilizaba sus servicios y no hicieron lo suficiente para remover las cuentas y los contenidos relacionados a ISIS. Sin embargo, según la Corte norteamericana, el hecho de que ISIS se beneficiara de los servicios que las plataformas ponen a disposición del público en general (incluidos sus sistemas de recomendación de contenidos) no es suficiente para afirmar que Twitter, Facebook y YouTube prestaron a sabiendas ayuda sustancial y, por lo tanto, fueron cómplices del atentado terrorista de ISIS en Estambul.
En cualquier caso, esta decisión no resolvió de manera definitiva la pregunta acerca de qué responsabilidad deberían asumir jurídicamente las plataformas por la moderación y recomendación de contenidos. De modo que, el debate continúa abierto. ¿Entonces?
Por un lado, podríamos argumentar que las recomendaciones son solo una forma de priorizar ciertos contenidos para presentar la enorme cantidad de información disponible y que no reflejan un compromiso con el valor del contenido ni participación en su creación. En general, se entiende que, sin inmunidad, las plataformas tendrían incentivos para monitorear y restringir en exceso los contenidos de sus usuarios para minimizar la amenaza de responsabilidad por contenidos ilícitos. Así, contenidos socialmente valiosos (como mensajes de activistas sociales o la sátira política) podrían ser retirados solo porque se parecen a los realmente nocivos. Por ello, si se resolviera que las plataformas son responsables por los contenidos que recomiendan o que no eliminan, aumentaría el riesgo legal que éstas enfrentan por el contenido de sus usuarios, lo que podría provocar un efecto sistémico muy contraproducente para la libre circulación de ideas e información.
Por otro lado, podríamos pensar que la difusión de contenido ilícito a través de las plataformas es un “riesgo sistémico” derivado del diseño o funcionamiento de sus servicios y podríamos ver a los sistemas de moderación y recomendación de contenidos como factores que influyen en ese riesgo sistémico. De este modo, podríamos exigir a las grandes plataformas digitales que implementen evaluaciones periódicas de esos riesgos y que adopten medidas para mitigarlos. De hecho, este es el enfoque regulatorio adoptado por la Unión Europea, actualizado recientemente a través de la Ley de Servicios Digitales.
En Argentina aún no tenemos un marco regulatorio específico. Hoy, solo contamos con un estándar de responsabilidad fijado por la Corte Suprema de Justicia en el fallo ‘Rodríguez, M. B. c. Google’ de 2014. En este caso, M. B. Rodríguez, ex modelo publicitaria, demandó a Google y Yahoo por los daños causados por los resultados de búsqueda que la vinculaban falsamente a varios sitios web pornográficos. Exigió que eliminaran todos esos enlaces, que evitaran que aparecieran enlaces similares en el futuro y que cesaran en el uso indebido de su imagen (thumbnails). Cubriendo en parte el vacío legal, la Corte rechazó la demanda y extendió su defensa robusta de la libertad de expresión invocando la Convención Americana de Derechos Humanos, que establece que la libertad de expresión comprende la libertad de buscar, difundir y recibir informaciones de todo tipo y por cualquier medio y que, como regla, el ejercicio de este derecho no puede estar sujeto a censura previa.
Para resolver el caso, la Corte tuvo en cuenta que los motores de búsqueda actúan como meros intermediarios entre los usuarios y las páginas web creadoras de contenido. Según la Corte, responsabilizar a un buscador por contenidos de terceros sería como sancionar a la biblioteca que facilitó el acceso a un libro con contenido nocivo, con el pretexto de que habría facilitado la producción de un daño. Receptando la tendencia dominante en el derecho comparado, la Corte sostuvo que los motores de búsqueda no tienen una obligación general de monitorear contenidos generados por terceros. Por lo tanto, son en principio irresponsables por los contenidos que no han creado. Por excepción, solo responden legalmente cuando toman “efectivo conocimiento” de determinado contenido ilícito y no lo eliminan o bloquean.
Si bien este estándar de responsabilidad fue reiterado por la Corte en casos posteriores, el vacío legal continúa existiendo. Además, los enfoques regulatorios que tomó como referencia la Corte para resolver el caso ‘Rodríguez’ han evolucionado en buena medida a lo largo de la última década. Quizá, hoy podamos aprovechar el debate planteado internacionalmente como una oportunidad para sumarnos a la discusión sobre qué responsabilidad deberían asumir las plataformas digitales por sus servicios, si es que deberían asumir alguna, sin perder de vista que esta discusión nos conduce a reflexionar sobre el presente y, especialmente, el futuro de la libertad de expresión online en nuestro país.