Alerta con el uso de Inteligencia Artificial para eliminar empleos o afectar elecciones: Mark Ruffalo de Hulk se revela

El actor de Marvel se une a colectivos globales que piden a las empresas de tecnología hacer pruebas éticas antes de lanzar una IA al mercado

Guardar

Nuevo

Ha sido enfático sobre la necesidad de no dar libertad al uso de esta tecnología sin un adecuado análisis. (Tomado de Instagram/@markruffalo)

El actor Mark Ruffalo, conocido por interpretar a Hulk en el universo cinematográfico de Marvel, lanzó a través de la red social Instagram, una advertencia sobre las implicaciones del uso de la inteligencia artificial (IA) en distintos espacios sociales que puede afectar la estabilidad de empleos y las decisiones democráticas de toda la población.

El actor nominado en múltiples ocasiones a los premios Óscar y otros reconocimientos defendió la ley SB 1047, Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera, impulsada por el gobernador de California, Gavin Newsom y otros miembros del Partido Demócrata.

En sus declaraciones sostiene que “es una ley necesaria que no apoyan las grandes empresas tecnológicas y los multimillonarios tecnológicos de Silicon Valley”, además, agrega que es “indispensable regular esta industria como se hace en cualquier otro sector”.

Cuáles son los riesgos de la inteligencia artificial para Mark Ruffalo

Uno de los riesgos más presentes en la pérdida de puestos de trabajo. (Imagen Ilustrativa Infobae)
Uno de los riesgos más presentes en la pérdida de puestos de trabajo. (Imagen Ilustrativa Infobae)

Ruffalo afirma que es necesario que se pruebe esta tecnología para que sea segura para toda la población. Entre los peligros que destaca están: La pérdida de empleos y los deepfakes, recreaciones artificiales que manipulan el rostro de una persona, en muchas ocasiones famosa para decir cosas que no son verdad.

“Estas recreaciones están influyendo en nuestras elecciones, nuestras ideas, nuestras leyes, y no hay regulación ahora mismo”. señala Ruffalo.

Entonces, el actor reitera su posición a favor de una regulación que estudie todo estos riesgos y que la IA sea segura para todos. afirma que “no conocemos las consecuencias que la IA tendrá”.

Cuál es el camino para la regular la inteligencia artificial

En el continente Europeo fue uno de los primeros lugares donde se habla de regular la IA. (Imagen ilustrativa Infobae)
En el continente Europeo fue uno de los primeros lugares donde se habla de regular la IA. (Imagen ilustrativa Infobae)

La Unión Europea marcó el camino en la regulación de la inteligencia artificial, y ahora Estados Unidos busca seguir su precedente. Sin embargo, la legislación propuesta, conocida como Ley SB 1047, ha generado controversia entre las principales empresas tecnológicas del país, que luchan por evitar su aprobación.

La Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial, diseñada por el senador demócrata de California Scott Wiener, tiene como objetivo reducir el riesgo de que la IA sea utilizada para crear amenazas de seguridad pública, como armas biológicas, químicas, nucleares o cibernéticas.

Entre las medidas propuestas se incluyen: la implementación de protocolos de seguridad y la capacidad de apagar los modelos de IA que representen un riesgo crítico para los usuarios.

Para los que están en contra de esta medida, no se debe penalizar la creatividad de los desarrolladores. (Imagen Ilustrativa Infobae)
Para los que están en contra de esta medida, no se debe penalizar la creatividad de los desarrolladores. (Imagen Ilustrativa Infobae)

Las sanciones incluyen multas civiles del 10 al 30% del costo de la potencia de cálculo de los modelos infractores, acciones civiles como la eliminación o suspensión de dichos modelos, y reparación de daños para las personas afectadas. Además, se crearía una Agencia de Operaciones Gubernamentales para supervisar el cumplimiento de las disposiciones.

Por qué existen algunos detractores para regular la IA

La ley ha sido calificada como demasiado restrictiva por parte de las compañías tecnológicas. Algunos expertos advirtieron que la aprobación de la SB 1047 dañaría el ecosistema de IA emergente en Estados Unidos, afectando principalmente a sectores más pequeños y vulnerables, como el público, el académico y las pequeñas empresas tecnológicas.

Asimismo, los detractores enfatizan que la ley realizaría penalizaciones de forma innecesaria a los desarrolladores, así que sofocaría a la comunidad de código abierto y frenaría la investigación en IA, sin resolver los problemas fundamentales que pretende abordar.

Por el momento se espera que esta ley sea debatida por varios miembros del sector público. (Imagen ilustrativa Infobae)
Por el momento se espera que esta ley sea debatida por varios miembros del sector público. (Imagen ilustrativa Infobae)

También, entre las modificaciones que pide el sector tecnológico destaca la eliminación de la posibilidad de que el fiscal general demande a las empresas por prácticas de seguridad negligentes en caso de un evento catastrófico.

Del mismo modo, se flexibilizó el requisito para los laboratorios de IA, que ya no estarán obligados a presentar certificaciones bajo pena de perjurio sobre sus pruebas de seguridad, sino que solo deberán hacer declaraciones públicas sobre sus prácticas de seguridad.

Cómo se define el futuro de la IA y su regulación

Aunque la ley SB 1047 ha enfrentado oposición de congresistas, académicos y empresas tecnológicas, fue aprobada por la legislatura de California.

Sin embargo, aún debe ser votada en el pleno de la Asamblea estatal y regresar al Senado de California para una nueva votación. Si supera ambas instancias, el gobernador Gavin Newsom tendrá la última palabra para decidir si la veta o promulga como ley.

Guardar

Nuevo