YouTube comenzará pruebas con grupos reducidos de usuarios para eliminar el recuento de los “no me gusta” en los vídeos en las próximas semanas. Esta decisión surge con el objetivo de cuidar el bienestar de los creadores así como para frenar las campañas dirigidas contra determinados videos de la plataforma.
Algunos canales de tendrán la interfaz de los videos cambiada para mostrar solo el recuento de “Me gusta” y no el de “No me gusta”, según anunció la empresa este martes en Twitter. En una publicación en su página de soporte, afirman que están probando algunos diseños diferentes que podrán verse en vídeos de pequeños grupos de usuarios durante las próximas semanas, pero que el botón de “no me gusta” no desaparecerá.
YouTube da este paso debido a las críticas recibidas por parte de los creadores de contenido respecto de su “bienestar y las campañas dirigidas de ‘No me gusta’”, que pueden estar motivadas por los contadores públicos del pulgar abajo.
La plataforma lleva años intentando resolver el problema de los dislike mobs, tal como se denomina a los grupos organizados de personas que boicotean videos repudiándolos en masa sin ni siquiera haberlos visualizado. Así, en 2019 se plantearon una serie de medidas, como la inclusión de un cuestionario al pulsar el botón.
La eliminación del número de pulgares abajo no supone la desaparición del botón para que, de este modo, los usuarios que visiten un clip sigan teniendo la posibilidad de compartir su opinión negativa sobre el mismo. Además, los creadores podrán seguir el recuento de esas críticas negativos de sus contenidos en YouTube Studio.
La compañía dijo que tomó esta decisión para “intentar equilibrar la mejora de la experiencia de los creadores” mientras se asegura de que “las opiniones de los espectadores se tienen en cuenta y son compartidas con el creador”.
Qué tiene en cuenta la plataforma para eliminar videos
La compañía da a conocer, por medio de sus informes de transparencia, la cantidad de videos que se eliminan de la plataforma con el objetivo de limitar el contenido dañino pero siempre asegurándose de que se mantenga la esencia de plataforma abierta que tiene.
YouTube basa su política de responsabilidad en cuatro pilares, que consisten en: a) remover todo el contenido que viole las políticas de la comunidad; b) reducir la proliferación de contenido dudoso, que no viola las políticas, pero tampoco es de buena calidad; c) elevar el contenido de calidad y las voces autorizadas y d) premiar el contenido que está a la altura o supera los estándares de YouTube a través de la monetización.
Por otro lado hay que remarcar que la moderación de contenido, que consiste entre otras cosas en decidir qué videos pueden estar o no en la plataforma, es un trabajo conjunto entre humanos y máquinas.
Las maquinas encuentran contenido rápidamente, y a gran escala y eso es importante para actuar de manera efectiva, es decir para poder quitar o limitar el contenido sin demora, antes de que los usuarios estén expuestos.
El punto es que las máquinas no siempre son tan precisas como los humanos, porque no pueden entender todas las sutilezas del lenguaje o las ironías. En ese sentido, suelen actuar, en general como nominadores, es decir que identifican el contenido potencialmente dañino y luego lo envían a un humano para que éste termine de tomar la decisión final.
(Con información de Portaltic)
SEGUIR LEYENDO: