Adrián Todolí es profesor titular de Derecho del Trabajo y de la Seguridad Social en la Universidad de Valencia, doctor en derecho y licenciado en economía. A lo largo de su carrera ha publicado ocho libros en solitario y otros diez colaborativos sobre normativas y condiciones laborales. En su última obra, Algoritmos productivos y extractivos, ya disponible en abierto, relata cómo estos y la inteligencia artificial están empezando a seleccionar candidatos, dar instrucciones y evaluar el desempeño de los trabajadores. Todolí analiza en una entrevista con Infobae España las consecuencias de los nuevos jefes algorítmicos y llega a la conclusión de que “si no se pone coto de alguna manera” los trabajadores perderán salario y experimentarán efectos negativos sobre su salud.
Pregunta: ¿Por qué crees que la inteligencia artificial no va a acabar con el trabajo, pero sí lo está transformando y reduciendo en algunos puestos?
Respuesta: La mayoría de estudios al principio eran bastante alarmistas. En 2013 y 2017 aparecen un par que hablan de que casi el 50% de los empleos iban a desaparecer. La mayoría de la doctrina empieza a darse cuenta de que las profesiones en sí mismas no desaparecen o muy pocas desaparecen, lo que cambian son las tareas que hacen esas profesiones. Creo que conforme estamos viendo la evolución de la inteligencia artificial nos damos cuenta de que no es tanto que vaya a asumir todos los roles, tareas o funciones que hace una persona, sino parte de ellas, y que otras vayan a cambiar. Incluso cosas como el ejercicio de la medicina, pero eso no significa que la profesión de médico vaya a desaparecer.
P: En el libro citas varias experiencias de control de una inteligencia artificial en Amazon y en call centers, pero suceden sobre todo en Estados Unidos. ¿Qué está pasando ya en España, más allá de los riders?
R: Muchos de los de los ejemplos, aunque la información es de Estados Unidos, son aplicables a España. Lo que pasa es que se tiene más información de Estados Unidos porque allí se hacen muchos más estudios, pero esas empresas también están aquí y están funcionando igual en, por ejemplo, los call centers. Es decir, aquí hay softwares que escuchan las llamadas, que controlan la velocidad de la llamada, la cortesía con la que pronuncia la persona del call center, si está resolviendo el problema o no. Todo esto es analizado por un algoritmo aquí igual que en Estados Unidos.
Por ejemplo, en Inglaterra hubo una investigación parlamentaria en el caso de Amazon y de ahí se tiene mucha información. Al hacerlo el Parlamento, todo eso está publicado, los interrogatorios que hicieron los parlamentarios, las investigaciones, toda la documentación, los informes... en Europa está funcionando de la misma manera. En Polonia, por ejemplo, también hay casos de sentencias que analizan esta cuestión. Es verdad que en España no tenemos estudios concretos que yo pudiera citar de qué está pasando, pero la cuestión es que sí que sabemos que tanto en Estados Unidos como en Europa, incluyendo la Unión Europea, funcionan de la misma manera.
P: En el libro explicas que hay tecnologías productivas y extractivas, aunque la división es confusa y depende del uso. ¿Porque se ha dado lugar a que cada vez se usen más como extractivas las tecnologías?
R: Cuando hablo de tecnologías productivas y extractivas, efectivamente, hablo más bien del uso. La inteligencia artificial se puede utilizar para mejorar la productividad de los trabajadores, para que los trabajadores con el mismo esfuerzo trabajen más rápido, produzcan más y de mejor calidad. Pero luego hay otro uso de la inteligencia artificial que es extractiva, es decir, que el objetivo no es que con el mismo esfuerzo se obtenga más, sino forzar o de alguna manera hacer que el trabajador tenga que esforzarse más y, por tanto, dar más energía: correr más rápido, levantar más cajas, hacer habitaciones de hotel más rápido, etcétera. ¿Por qué se utilizan más en algunos sectores las las extractivas? Yo no creo que se utilicen más, lo que pasa es que pongo el foco en que sí que hay que regular algunas.
Obviamente, las tecnologías que son productivas y que van a mejorar la productividad hay que dejar que funcionen, pero aquellas que su objetivo sea extractivo, aunque fueran muy poquitas, tendrían que estar controladas porque pueden afectar a la salud mental y física de las personas. Cito ejemplos, de nuevo en Estados Unidos, que en el caso de Amazon por el uso de esta inteligencia artificial hay informes que establecen que tienen el doble de accidentes mortales y muy graves, más que la media del sector. El hecho de que la persona tenga que ir corriendo de un sitio a otro puede acabar provocando accidentes. Que el algoritmo no tenga en cuenta la prevención de riesgos laborales es algo que tiene que estar de alguna manera regulado o controlado, simplemente por garantizar los derechos fundamentales de las personas.
P: ¿Crees que el uso de la tecnología, especialmente de estos usos extractivos, es el motivo principal detrás de que los salarios estén estancados en España? La productividad ha ido aumentando en las últimas décadas, pero los salarios no han seguido la misma curva.
R: Sí, esto está pasando en los últimos 40 años, es lo que se llama la brecha digital. Consiste en que los trabajos de cualificación media que tienen un salario medio son los que están desapareciendo principalmente y los que están quedando son trabajos muy cualificados, con salarios muy altos, y trabajos poco cualificados, con salarios bajos o muy bajos. Si un trabajo se vuelve más cualificado y, por tanto, se retribuye mejor, esto implica que hay un gran incentivo bien para automatizar este trabajo, bien para hacerlo extractivo y hacer que la persona no necesite tantas competencias y no cobre tanto. Es decir, simplificar un trabajo a través de la inteligencia artificial o a través de la digitalización hace que esa simplificación implique menos competencias y eso acaba provocando que esa persona pase a cobrar menos de lo que estaba cobrando. Esto yo lo planteo como que es un gran reto para Europa sobre todo y para Estados Unidos, que estamos basados en una gran clase media, que es la que sostiene el sistema y la que sostiene la democracia. Y esta es precisamente la que ha estado reduciéndose en los últimos 40 años. Ahora tenemos menos clase media y tenemos más bien o clase muy alta o, sobre todo, clase baja con poco poder adquisitivo.
P: ¿Podríamos decir que la clase media se ve amenazada por cómo se están usando los algoritmos?
R: Sí, sí, efectivamente.
P: ¿Qué consecuencias tiene en la organización del trabajo que desaparezcan los puestos intermedios? Más allá de la disminución de la clase media.
R: Implica muchas cosas, la primera es la propia progresión. Tú empiezas en una empresa con el objetivo de mejorar, de ascender en la empresa. Si desaparecen los puestos intermedios, te vas a quedar abajo. Es muy complicado que pases de un puesto bajo a un puesto súper alto. Normalmente hay una progresión y si desaparecen esos mandos intermedios, muy probablemente nunca vas a llegar a un puesto muy alto porque directamente será contratado en el mercado a una persona que ha estudiado en una universidad de prestigio internacional, etcétera. No habrá progresión.
Además está la cuestión de que esos puestos intermedios están siendo sustituidos por inteligencias artificiales, que son las que toman decisiones que van a afectar a los trabajadores que están abajo en la escala, bajo el algoritmo. Ahí hay riesgos de deshumanización. Puede, salvo que se programe bien, acabar provocando que se trate como máquinas al resto de los trabajadores, que eso provoque problemas de salud y de accidentes de trabajo. También incluso otros como la imposibilidad de tomar tus decisiones, de falta de autonomía. Puedes negociar con tu con tu jefe si te gusta más hacer unas tareas u otras en un momento dado, pero el algoritmo tú no vas a tener posibilidad individualmente de negociar. Como mucho vas a poder porque regulatoriamente se permita o porque a través de la negociación colectiva se infiera en el diseño del algoritmo. Pero una vez el algoritmo está hecho, tú no puedes influir en él por mucho que discutas.
P: ¿Qué se puede hacer para frenar esto?
R: Es un tema muy complicado. Primero, creo que públicamente se debe empezar a plantear que lo que hace una inteligencia artificial que sustituye a una persona, incluso a un mando intermedio, es ahorrar costes, pero también disminuye la calidad. Tenemos que empezar a ser conscientes de que el objetivo no tiene que ser que la inteligencia artificial sustituya a las personas para ahorrar costes, sino que una inteligencia artificial trabaje junto con una persona que tenga las habilidades para hacerlo para de esta manera ser más productivos que cualquiera de los dos de manera individual. De hecho, hay muchos estudios que ya plantean que una inteligencia artificial por sí sola o una persona por sí sola son peores tomando decisiones que cuando trabajan conjuntamente. Esto ha pasado incluso en materia de medicina. Hay actualmente inteligencias artificiales que son capaces de leer radiografías para detectar cuándo hay un cáncer en esa radiografía y se ha demostrado que aciertan más una inteligencia artificial junto con una persona humana, trabajando juntos, que cuando lo hacen por separado, individualmente.
La clave está en que no debemos decir bueno, pues eliminamos al médico y hacemos que la inteligencia artificial lea radiografías porque nos ahorramos el salario de la persona. No, lo que tenemos que pensar es si conseguimos que trabajen juntos. Es verdad que no nos ahorraremos el salario de la persona, pero lo que conseguiremos es una calidad mejor y se acertará más. Por tanto, harán mejor su trabajo. Hay que cambiar esa perspectiva de que la inteligencia artificial va a ahorrar costes. Las empresas lo que tienen que pensar es que la inteligencia artificial va a mejorar la calidad del producto que venden. Y es verdad que ahora mismo se están centrando mucho en ahorrar costes porque estamos en una primera fase, pero yo creo que en un momento dado las empresas se darán cuenta que aquellas que solamente piensan en ahorrar costes van a perder clientes respecto a aquellas otras que invierten. Y aunque al principio los precios sean más caros, la calidad será mejor.
P: Este uso de las tecnologías para ahorrar costes conlleva muchos riesgos que señalas en el libro sobre la igualdad, la privacidad y la salud de los trabajadores. ¿Puede estar detrás del aumento de las bajas laborales en España?
R: Creo que en algunos sectores concretos sí, pero hay que tener en cuenta que tampoco la inteligencia artificial está en todos los sectores, mientras que las bajas están aumentando en todos. De hecho, hay muchos casos contrastados, aparte del de Amazon, en los que se comprueba que el uso de la inteligencia artificial aumenta el ritmo de trabajo, lo que provoca accidentes, tanto físicos de tropezar, caerte o dolor de espalda, a otras cuestiones que son mentales. El cansancio provoca burnout, es decir, el hecho de que un algoritmo te haga trabajar muy rápido puede acabar haciendo que al cabo de muy poco tiempo estés muy cansado, en depresión y efectivamente eso implique una baja. Pero también es cierto que no es el único factor.
Hay muchos otros factores, entre otras cosas, el de que están aumentando las bajas porque también está aumentando el empleo. Hace diez años teníamos un 25% de paro y ahora tenemos un 12%. Ahora tenemos muchísimos más trabajadores, casi 2 millones más, y por un tema estadístico, cuanta más gente trabaja, más fácil es que haya bajas.
P: Mencionas también en el libro que la reducción de la jornada puede generar un reequilibrio del poder de negociación de los trabajadores afectado por el uso extractivo de las tecnologías, ¿por qué?
R: Todo depende de cómo se configure. El planteamiento que hago es una reducción de jornada que pueda ser concretada o cambiada en un convenio colectivo. Eso puede dar pie a que aquellos trabajadores que, a lo mejor en vez de reducción de jornada, prefieren más salario, puedan en el convenio colectivo intercambiar una cosa por otra. Voy a poner un ejemplo que yo creo que se centra concretamente en el reto de automatización y reducción de jornada y es el caso de que, en un estudio que hizo Acemoglu, se analizó la introducción de una inteligencia artificial en un sector en Estados Unidos y en Alemania. El mismo sector, mismo tamaño de empresa, etcétera, todo en igualdad de condiciones.
Se vio que en Estados Unidos esa inteligencia artificial provocaba el despido de seis personas, mientras que en Alemania provocaba el despido solo de dos. La razón y la conclusión a la que llegan de por qué esto es así es porque en Estados Unidos todos los beneficios de productividad que provocaba esa inteligencia artificial se trasladaban a despidos. Por tanto, como aumentaba la productividad, hacía falta menos gente y se despedía a los trabajadores. Mientras que en Alemania lo que pasaba es que esa mejora de la productividad hacía trabajar más rápido y eso provocaba que algunos trabajadores efectivamente eran despedidos, pero el resto de trabajadores de la empresa veían reducida su jornada. Por tanto, era un reparto más equilibrado de los beneficios de la tecnología. La cuestión es cómo repartimos los beneficios de la productividad y la reducción de jornada es una manera.
P: En cuanto a la regulación, sugieres controles externos e internos de los algoritmos de las empresas y la necesidad de que un humano sea el que finalmente tome las decisiones. ¿Es realista, en el contexto actual, que las empresas vayan a optar por esto?
R: Obviamente una empresa en igualdad de condiciones normalmente prefiere que, si funciona bien una inteligencia artificial, sea la que tome decisiones por muchas razones. En el libro describo muchas de las ventajas que aportan el uso de algoritmos de inteligencia artificial para dirigir el trabajos, como la estandarización de las decisiones. Si tú tienes 50 centros de trabajo en España con 100 supervisores, cada supervisor tendrá su criterio y dirigirá el trabajo un poco como quiera, siempre siguiendo los objetivos de la empresa, pero tendrá su autonomía. La inteligencia artificial siempre va a dar la misma respuesta ante las mismas circunstancias. Entonces, desde la parte empresarial se entiende que se va a estandarizar la respuesta. Además, va a estar más alineada hacia los objetivos de la empresa porque puede ser programable. A una persona puedes de alguna manera convencerla, pero no la puedes programar. Son muchas ventajas que va a provocar que tendamos hacia que las empresas cada vez utilicen más la inteligencia artificial para dirigir el trabajo.
P: Ante todo esto también propones en el libro que las autoridades legislen, pero en España tenemos fragmentación política desde años y la Comisión Europea se ha propuesto reducir cargas normativas. ¿Es poco factible que se vayan a aprobar nuevas normas y que esas normas sean exigentes?
R: El reglamento de inteligencia artificial salió publicado en agosto de este año, es decir, que actualmente tenemos una normativa europea muy completa en esta materia y que va a entrar en vigor dentro de dos años. Es poco probable que ahora mismo la Comisión Europea plantee una nueva regulación, porque esta ni siquiera ha entrado en vigor. Hay que esperar a ver qué frutos da esta regulación para ver si hace falta otra distinta. En cualquier caso, esta regulación le da poder a la a la Comisión Europea para establecer algunas directrices nuevas en materia de inteligencia artificial.
P: Aunque en el libro también explicas que el reglamento es poco ambicioso, que podría haber ido más allá.
R: Sí, en mi opinión, da pocos derechos individuales. Es verdad que el planteamiento del reglamento desde el principio es una regulación para un sector económico. Regula la actividad empresarial respecto a otras empresas, cuando un desarrollador que es una empresa informática que crea un algoritmo lo quiere vender a otra que sería el responsable del despliegue, que es básicamente la empresa que lo va a usar. Establece controles de calidad para que ese algoritmo cuando se venda o esa inteligencia artificial sea de calidad, dé respuestas fiables, no discrimine, etcétera. Pero no establece derechos individuales, ni tampoco, por ejemplo, de poder ir al juez un ciudadano que se ha visto afectado para poder reclamar ciertas cosas. En este sentido me parece poco ambicioso porque podría haber ido más allá y haber dado derechos a los ciudadanos directamente en vez de simplemente establecer obligaciones entre empresas.
P: Si al final esta regulación no termina consiguiendo pautar bien el mercado de la inteligencia artificial en lo que respecta a los trabajadores. ¿Hacia qué escenario crees que iríamos?
R: Alemania sí que está regulando mucho más profundamente y puede ser que otros países imiten el modelo alemán de protección de los trabajadores frente a la inteligencia artificial. O incluso es posible que haya normativas sectoriales, concretamente, en el mundo del trabajo, porque el reglamento de inteligencia artificial regula todas las inteligencias artificiales, las que son para dirigir el trabajo, pero también las que son para, por ejemplo, decidir qué te recomienda Netflix.
Es posible que este reglamento no se modifique, pero sí que aparezcan normas sectoriales concretas, por ejemplo, en materia de prevención de riesgos laborales e inteligencia artificial o de protección de datos, sobre todo si estamos viendo que implica un perjuicio para para los derechos o la discriminación.
P: Pero hasta que eso suceda, el panorama parece que es poco halagüeño para para los trabajadores.
R: También está la negociación colectiva, pero sí. Actualmente, sobre todo para sectores de baja cualificación, yo creo que van a verse cada vez más controlados por una inteligencia artificial y eso puede provocar, si no se pone coto de alguna manera, más accidentes de trabajo y pérdida de poder de negociación por parte de los trabajadores.