
Un nuevo trabajo está a punto de ser remplazado. Nevada se convertirá en el primer estado de Estados Unidos en implementar una inteligencia artificial para decidir si los desempleados pueden recibir subsidios. La IA será utilizada para analizar y emitir recomendaciones sobre las apelaciones de personas que han solicitado este tipo de ayudas, una tarea que, hasta el momento, estaba exclusivamente en manos de funcionarios públicos.
El proyecto ha generado una mezcla de reacciones: desde aquellos que ven en la tecnología una oportunidad para acelerar procesos burocráticos, hasta los que alertan sobre los peligros de delegar en una IA decisiones que podrían cambiar la vida de miles de personas.
Cómo funcionará la IA para decidir la entrega de subsidios
El Departamento de Empleo, Formación y Rehabilitación de Nevada (DETR, por sus siglas en inglés) ha contratado los servicios de Google Vertex AI Studio, una plataforma que permitirá a la IA procesar los datos de las apelaciones de subsidios de desempleo. La inversión realizada para su implementación asciende a 1′383,838 de dólares.

Según lo informado, esta tecnología está diseñada para analizar las transcripciones de audiencias y entrevistas relacionadas con las solicitudes de ayuda, comparando la información obtenida con casos anteriores.
El sistema tiene como objetivo reducir el tiempo necesario para que los funcionarios redacten informes sobre las apelaciones. En la actualidad, los empleados del DETR tardan un promedio de tres horas en completar un solo informe, pero con la ayuda de la IA, este tiempo podría reducirse drásticamente a cinco minutos.
Esta mejora en la eficiencia es vista como una solución crucial, ya que Nevada enfrenta un atraso de 40.000 solicitudes de subsidio de desempleo, muchas de las cuales se acumularon durante la pandemia de COVID-19.
El DETR ha asegurado que las recomendaciones emitidas por la IA no serán definitivas y que un funcionario humano tendrá la responsabilidad de revisar cada una de ellas antes de emitir un fallo final. Según el director del departamento, Christopher Sewell, no habrá decisiones escritas por la IA que no pasen por una “interacción humana”.

Uno de los temores más extendidos es que los funcionarios puedan sentirse presionados para aceptar las recomendaciones de la IA sin una revisión exhaustiva, simplemente para reducir la acumulación de casos y acelerar el proceso. Este tipo de presión podría tener consecuencias graves para los solicitantes, ya que cualquier error o sesgo en las recomendaciones de la IA podría pasar desapercibido.
Además, se ha señalado un problema potencial relacionado con el sistema judicial. En palabras de Elizabeth Carmona, abogada senior de Servicios Legales de Nevada, las decisiones basadas en hechos que emitan los árbitros de apelación pueden ser difíciles de revertir en los tribunales si el error proviene de una recomendación de la IA. Esto significa que un fallo erróneo podría no tener un recurso adecuado en la corte, lo que añade una capa de vulnerabilidad al sistema.
Qué podría salir mal en este proceso
El uso de IA en un contexto tan sensible como el de las decisiones sobre ayudas económicas para personas desempleadas ha desatado un debate sobre la fiabilidad de este tipo de tecnologías. Las IA generativas, como la que se utilizará en Nevada, son conocidas por su tendencia a cometer errores, sesgos y, en algunos casos, a generar información falsa o “alucinaciones”.

Google ha afirmado que trabajará en conjunto con Nevada para identificar y corregir posibles sesgos, las preocupaciones persisten. Con la idea de evitar sesgos relacionados con género, raza y otros factores, lo que podría llevar a decisiones injustas para ciertos grupos de personas. En un estado como Nevada, donde la diversidad racial y cultural es significativa, este aspecto cobra mayor relevancia.
El hecho de que una IA de primera generación, todavía en proceso de maduración, esté encargada de hacer recomendaciones que impactarán directamente en la vida financiera de miles de ciudadanos ha sido visto como un riesgo considerable. A medida que la tecnología avanza, es evidente que no es infalible y que, en muchos casos, sus decisiones pueden estar lejos de ser correctas.
Según informes de Gizmodo, el sistema comenzará a funcionar en los próximos meses, y con ello, el temor de que los errores de la IA puedan traducirse en decisiones inapelables o difíciles de revertir.
Últimas Noticias
Nuevo ícono para cualquier celular, tiene que ver con IA y Google: descubre el cambio
Además del novedoso diseño, se han incorporado dos accesos directos: ‘Vídeo’ y ‘Compartir pantalla’, que permiten iniciar de manera inmediata los modos de Gemini Live

Dubái ya cocina con inteligencia artificial en un restaurante futurista
La IA no se ocupará de la cocina propiamente dicha. Su función principal será diseñar recetas originales, tomando en cuenta la disponibilidad de ingredientes según la estación del año

Samsung confirma las funciones con inteligencia artificial que estarán gratis en los Galaxy
En el caso de las funciones impulsadas por Gemini, la situación es diferente. Aunque actualmente se ofrecen sin coste, la empresa surcoreana advierte que la decisión sobre su gratuidad no depende exclusivamente de ellos

Un Atari 2600 se enfrentó a ChatGPT en una partida de ajedrez: el ganador te sorprenderá
La consola retro demostró que la IA no siempre está preparada y puede cometer errores y confusiones

Gana en dólares usando aplicaciones para caminar, dormir o responder encuestas
Las aplicaciones que recompensan con dinero o tarjetas de regalo a cambio de pasos, hábitos saludables o encuestas ganan popularidad, pero exigen datos personales y metas extenuantes
