Llevamos un par de años hablando continuamente de la inteligencia artificial y cómo se integra en nuestras vidas desde diferentes perspectivas. Herramientas como ChatGPT y Dall-E, capaces de generar textos e imágenes con precisión, han capturado la imaginación del público y se han integrado rápidamente en diversas industrias. Sin embargo, detrás de este avance tecnológico, se esconden problemas significativos que los usuarios deben conocer.
Desde la Revolución Industrial, cada desarrollo técnico ha venido acompañado de costos ocultos, y la IA no es una excepción. Las promesas de progreso y eficiencia a menudo ocultan las consecuencias sociales, ambientales y humanas.
Aunque la IA no es inherentemente mala, sus efectos no deseados son reales y, si no se abordan a tiempo, pueden ser peligrosos.
El costo humano
Uno de los aspectos más oscuros de la IA es su impacto en los trabajadores humanos, especialmente aquellos en países vulnerables. Aunque las redes neuronales y los modelos de lenguaje como GPT han avanzado significativamente, todavía requieren supervisión humana para eliminar contenido inadecuado. Esto incluye imágenes y textos de odio, violencia y abuso que deben ser filtrados antes de que lleguen a las IA.
Este trabajo, generalmente asignado a poblaciones desfavorecidas en África, puede tener efectos devastadores en la salud mental de los trabajadores. Expuestos constantemente a contenido perturbador, muchos de estos individuos sufren traumas psicológicos severos.
El desafío del entrenamiento
La fiabilidad de las respuestas generadas por IA depende en gran medida de la calidad de los datos con los que se entrenan. ChatGPT, por ejemplo, se basa en vastas cantidades de texto e imágenes disponibles en internet. Sin embargo, no todo este material es confiable. Las redes neuronales pueden aprender tanto de información precisa como de falacias flagrantes, lo que afecta la exactitud de sus respuestas.
Un ejemplo claro es Tay, un bot de IA lanzado por Microsoft en 2016. Programado para aprender del comportamiento humano en Twitter, Tay rápidamente adoptó discursos de odio y teorías de conspiración, lo que llevó a su cierre en menos de 24 horas. Este incidente subraya la importancia de la calidad del entrenamiento y los desafíos de educar adecuadamente a una IA.
El consumo energético y el impacto ambiental
El crecimiento de la IA también conlleva un alto costo ambiental. Los centros de datos que alimentan estos modelos requieren una cantidad enorme de electricidad y agua. Según un informe de Scientific American, los servidores despachados por Nvidia en un año pueden consumir tanta electricidad como todo el país de los Países Bajos.
Además, el entrenamiento de un solo modelo como ChatGPT puede generar hasta 284 toneladas de dióxido de carbono, lo que equivale a las emisiones anuales de 70 autos convencionales.
La necesidad de enfriar estos centros de datos añade otro nivel de complejidad. El enfriamiento, generalmente realizado con agua, ha provocado preocupaciones en regiones con escasez hídrica.
Privacidad y derechos de autor
Otro problema es el manejo de la privacidad y los derechos de autor. Para entrenar a las IA, las empresas utilizan grandes volúmenes de datos tomados de internet, incluidos textos e imágenes protegidos por derechos de autor.
Aunque algunos acuerdos recientes con medios de comunicación y plataformas de redes sociales han comenzado a abordar estos problemas, todavía existen preocupaciones sobre cómo se manejan los datos personales y el respeto a los derechos de autor.
Consecuencias sociales y éticas
La proliferación de IA también plantea cuestiones éticas y sociales. Los sistemas de IA carecen de consciencia, valores y deseos humanos. Esto puede llevar a respuestas y comportamientos inesperados, como la generación de información falsa o sesgada.
En algunos casos, la IA ha sido utilizada para crear contenido engañoso o manipular opiniones públicas, lo que pone en riesgo la confianza en la información y las instituciones.
Además, la dependencia excesiva de la IA puede deshumanizar ciertas interacciones y procesos, sustituyendo el juicio y la empatía humana por algoritmos. Esto es especialmente preocupante en sectores como la justicia, la atención médica y la educación, donde las decisiones y el apoyo humano son cruciales.