La vicepresidenta de Estados Unidos, Kamala Harris, dijo el jueves a los jefes de las principales empresas tecnológicas que tienen la responsabilidad “moral” de proteger a la sociedad de los potenciales peligros de la inteligencia artificial (IA).
“Como he compartido hoy con los directores ejecutivos de las empresas de vanguardia en la innovación estadounidense en IA, el sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos”, dijo Harris en un comunicado.
Harris se reunió con los directores generales de Alphabet, Anthropic, Microsoft y OpenAI. El mensaje de los líderes gubernamentales a las empresas es que tienen un papel que desempeñar en la reducción de los riesgos y que pueden trabajar junto con el gobierno.
El gobierno del presidente demócrata Joe Biden planea anunciar una inversión de 140 millones de dólares para establecer siete nuevos institutos de investigación de inteligencia artificial, adelantaron funcionarios.
Además, se espera que la Oficina de Administración y Presupuesto de la Casa Blanca emita una guía en los próximos meses sobre cómo las agencias federales pueden usar las herramientas de inteligencia artificial. También habrá un compromiso independiente por parte de los principales desarrolladores de inteligencia artificial para participar en una evaluación pública de sus sistemas en agosto en la convención de hackers DEF CON en Las Vegas.
Las autoridades del Reino Unido también están analizando los riesgos asociados con la inteligencia artificial. Un regulador británico dijo que revisará el mercado de la inteligencia artificial, centrándose en la tecnología que sustenta a los chatbots como ChatGPT, que fue desarrollado por OpenAI.
El mes pasado, Biden expresó que la inteligencia artificial puede ayudar a abordar las enfermedades y el cambio climático, pero también podría dañar la seguridad nacional y perturbar la economía de manera desestabilizadora.
El lanzamiento de ChatGPT este año ha llevado a un mayor debate sobre la inteligencia artificial y el papel del gobierno con la tecnología. Debido a que la inteligencia artificial puede generar escritura similar a la humana e imágenes falsas, existen preocupaciones éticas y sociales.
OpenAI mantiene en secreto los datos con los que se han entrenado sus sistemas de inteligencia artificial. Eso hace que sea difícil para los que están fuera de la empresa entender por qué su ChatGPT llega a generar respuestas parciales o falsas a solicitudes, o para abordar preocupaciones sobre cuestiones de derechos de autor.
(Con información de AFP y AP)
Seguir leyendo: