La inteligencia artificial redefine a la sociedad, pero conlleva grandes riesgos: la advertencia de Amanda Askell

Para la filósofa y experta en IA, esta tecnología tiene el poder de transformar profundamente cómo se vive y trabaja. Sin embargo, aseguró que su autonomía y la concentración de poder plantean dilemas éticos urgentes

“El mayor riesgo no es que los sistemas sean autónomos, sino que actúen en formas que no anticipamos o que no comprendemos completamente”, dijo Askell, (Lex Fridman Podcast)

Lex Fridman, investigador y presentador conocido por sus conversaciones con figuras claves de la tecnología, entrevistó a Amanda Askell, filósofa y experta en alineación de modelos de inteligencia artificial en Anthropic. Durante el encuentro, transmitido por el popular canal de Fridman, exploraron los retos y oportunidades que plantea la IA avanzada, desde los riesgos de su autonomía hasta su impacto en las decisiones humanas y la importancia de garantizar que estas herramientas sean seguras y éticas.

Askell, con una destacada trayectoria en filosofía y dilemas éticos de la tecnología, reflexionó sobre cómo la inteligencia artificial está moldeando el comportamiento humano y los desafíos de diseñar sistemas que reflejen valores universales. Entre los temas destacados, subrayó la necesidad de transparencia, la democratización del acceso y las responsabilidades éticas de quienes lideran el desarrollo de esta tecnología.

El riesgo de la autonomía descontrolada

La investigadora resaltó que la supervisión constante y principios éticos explícitos son claves para controlar la autonomía de la IA (Imagen Ilustrativa Infobae)

Para la investigadora de Anthropic, la autonomía de la IA no es un problema en sí mismo, pero puede convertirse en un riesgo significativo si los sistemas actúan de manera imprevista o desalineada con los valores humanos: “El mayor riesgo no es que los sistemas sean autónomos, sino que actúen en formas que no anticipamos o que no comprendemos completamente”.

Un ejemplo concreto es cómo un sistema diseñado para optimizar el tráfico podría proponer soluciones poco éticas o socialmente perjudiciales, como cerrar rutas principales sin considerar su impacto en las comunidades. “Cuando un sistema es lo suficientemente poderoso, incluso las desviaciones pequeñas de un objetivo inicial pueden tener consecuencias enormes”, advirtió la filósofa especializada en ética de la IA.

La clave, según la investigadora, está en diseñar modelos que no sólo sean funcionales, sino que operen bajo restricciones claras y alineadas con valores éticos predefinidos.

Estrategias para limitar los riesgos

Desde su experiencia en Anthropic, Askell explicó que la supervisión constante y el uso de principios éticos explícitos son herramientas fundamentales para mantener la autonomía de la IA bajo control: “La IA constitucional permite que los modelos operen dentro de un marco ético claro, evaluando sus acciones no sólo con base en datos, sino también según principios predefinidos”.

Además, subrayó la importancia del ajuste dinámico, donde los sistemas pueden ser monitoreados y ajustados continuamente para evitar desviaciones: “La supervisión activa y el aprendizaje constante son esenciales para mantener a los sistemas alineados con los valores humanos”.

Amanda Askell advierte sobre el peligro de concentración de poder en el ámbito de la IA, que puede ampliar brechas económicas y culturales (Lex Fridman Podcast)

La concentración de poder: un desafío ético y social

La inteligencia artificial está transformando las estructuras sociales y económicas, pero su desarrollo está concentrado en unas pocas organizaciones. Para la experta, este desequilibrio no solo puede ampliar las brechas económicas, sino también limitar la diversidad de perspectivas integradas en los sistemas de IA: “La inteligencia artificial es una herramienta inmensamente poderosa. Si se concentra demasiado en una sola dirección, podemos terminar ignorando necesidades fundamentales de gran parte de la humanidad”.

Este peligro es especialmente preocupante en aplicaciones como la educación, la justicia o el empleo, donde los sesgos en los valores integrados en los sistemas podrían perpetuar exclusiones o discriminaciones. “Un sistema diseñado desde un único marco cultural o ético corre el riesgo de no representar adecuadamente la riqueza de valores que existen en diferentes sociedades,” explicó la filósofa.

La invitada de Lex Fridman abogó por la democratización del acceso a estas herramientas y por la colaboración entre empresas, gobiernos y organizaciones independientes para garantizar su uso responsable: “Un ecosistema más inclusivo no solo reduciría riesgos, sino que también ampliaría las oportunidades para aplicar la inteligencia artificial de manera más equitativa”.

El futuro de la interacción humano-máquina

En aplicaciones como educación y justicia, la especialista destaca la necesidad de una IA que represente la diversidad de valores sociales (Imagen Ilustrativa Infobae)

Para Askell, los sistemas actuales, como los asistentes virtuales, apenas representan el inicio de una relación mucho más profunda entre humanos y máquinas: Estamos avanzando hacia un punto en el que las máquinas no solo responderán preguntas o ejecutarán comandos, sino que se convertirán en colaboradores reales en tareas complejas”.

La filósofa destacó que el diseño de estas interacciones debe equilibrar la innovación con la responsabilidad, asegurándose de que las tecnologías complementen las habilidades humanas en lugar de sustituirlas: “Queremos sistemas que complementen nuestras habilidades, no que las reemplacen por completo. Si las personas comienzan a depender de la IA para tomar decisiones importantes, corremos el riesgo de perder habilidades críticas en el proceso”.

Además, subrayó que las decisiones que se tomen hoy sobre cómo diseñar estas relaciones tendrán un impacto profundo en el futuro: “La forma en que diseñamos estas interacciones ahora definirá cómo las sociedades se relacionarán con la tecnología en las próximas décadas”.

Durante el encuentro, transmitido por el popular canal de Fridman, exploraron los retos y oportunidades que plantea la IA avanzada (Lex Fridman Podcast)

La conversación entre Lex Fridman y Amanda Askell dejó en claro que la inteligencia artificial no es sólo una herramienta tecnológica, sino una fuerza transformadora que redefine cómo se vive, trabaja y se toman decisiones. Desde los riesgos de la autonomía hasta los desafíos de la concentración de poder, la especialista destacó que el futuro de la IA estará determinado no sólo por su capacidad técnica, sino por las decisiones éticas y políticas que se tomen hoy.

“El verdadero desafío no está solo en construir sistemas avanzados, sino en garantizar que sirvan al bienestar colectivo, sin concentrar poder ni perpetuar desigualdades,” afirmó la investigadora.

El destino de la inteligencia artificial estará moldeado tanto por su inmenso potencial como por la capacidad para guiarla con sabiduría y responsabilidad.

Ahora, el dilema central que resta saber es ¿qué tan preparados estamos para construir una relación con esta tecnología que beneficie a toda la humanidad?