Los siete principios de Google para el desarrollo de su inteligencia artificial

Cada innovación en IA será evaluada para garantizar el beneficio a la sociedad y su adherencia a normativas legales y culturales

Guardar
Antes del despliegue masivo, Google asegura que sus modelos de IA pasarán por pruebas rigurosas para proteger los datos de los usuarios. (REUTERS/Dado Ruvic)
Antes del despliegue masivo, Google asegura que sus modelos de IA pasarán por pruebas rigurosas para proteger los datos de los usuarios. (REUTERS/Dado Ruvic)

Google es una de las empresas que lidera el mercado del desarrollo de la inteligencia artificial gracias a la incorporación de su modelo de IA, Bard, en los diferentes productos que tiene disponibles al público. Plataformas como Drive, Docs, Sheets, YouTube, Photos, entre otras, ya cuentan o están probando características potenciadas con esta tecnología.

Este avance es posible gracias a que, además de crear esta tecnología y adaptarla a las necesidades de los usuarios, Google posee siete principios indispensables a los que obedece para la creación de nuevos modelos de inteligencia artificial como la que lanzó durante el mes de diciembre de 2023, Gemini.

Ser beneficiosa para la sociedad

Debido a que el desarrollo de la tecnología de la inteligencia artificial implica no solo mayores avances tecnológicos, sino que además promete transformaciones en múltiples sectores como la sanidad, la seguridad o el entretenimiento, Google indica en su página web que tiene en cuenta las posibles consecuencias de esta actividad.

Según la empresa, cada uno de los avances que propongan en estos sistemas serán evaluados cuidadosamente para que, además de ofrecer la tecnología de forma no comercial, seguirán las normas legales, sociales y culturales de los países en los que opera para mantenerla disponible y que esta ofrezca alta calidad informativa.

Los usuarios podrán ofrecer su retroalimentación sobre la IA de Google, lo que impulsa una mejora constante en la funcionalidad de su tecnología. (GOOGLE I/O)
Los usuarios podrán ofrecer su retroalimentación sobre la IA de Google, lo que impulsa una mejora constante en la funcionalidad de su tecnología. (GOOGLE I/O)

Evitar la creación o refuerzo de sesgos injustos

Por otro lado, debido a que se han reportado muchos casos de plataformas como ChatGPT en las que usuarios hicieron que estos programas reproduzcan mensajes de odio o extremistas, Google indicó que evitaría este tipo de problemas.

En sus objetivos para el desarrollo de la inteligencia artificial, la compañía indicó que estos software pueden tener algunos sesgos que pueden cambiar de acuerdo a las diferentes culturas y sociedades. Sin embargo, al mismo tiempo se compromete a prevenir la aparición de ellos en sus sistemas y no promover o reproducir estos contenidos que afectan a las personas en temas sensibles como su identidad racial, étnica, género, sexualidad, entre otras.

Ser creado y probado para la seguridad

Como una medida complementaria para asegurar la calidad de los resultados presentados por la inteligencia artificial, Google también indica que reforzará su sistema de detección de fallos de seguridad para evitar que se produzcan errores graves que puedan poner en riesgo los datos de los usuarios

“En casos adecuados, probaremos las tecnologías de IA en entornos controlados y monitorearemos su funcionamiento tras el despliegue”, aseguró la compañía de tecnología en su página web oficial.

Los sistemas IA de Google pasan por pruebas de seguridad para proteger la privacidad y la integridad de la información. (Arne Dedert/Dpa)
Los sistemas IA de Google pasan por pruebas de seguridad para proteger la privacidad y la integridad de la información. (Arne Dedert/Dpa)

Ser responsable ante los usuarios

Ya que el uso de la inteligencia artificial será masivo y que se podrían generar inconvenientes con respecto a la creación de contenido, Google indica que cada uno de los modelos de IA que cree ofrecerá una oportunidad para que los usuarios puedan dar sus opiniones y retroalimentación para un mejor funcionamiento de la plataforma.

Además, en caso de que se presenten quejas, estas podrán ser presentadas y un control humano estará encargado de resolverlas, de modo que la inteligencia artificial no será la que tendrá el control de la actividad online.

Incorporar principios de diseño basados en privacidad

En casos sensibles como la filtración de información de forma accidental, Google también añadió un principio básico en el que indican que cada una de las tecnologías de inteligencia artificial estarán protegidas desde su concepción por un sistema de control.

Además se afirma que estas plataformas tendrán la posibilidad de notificar cuándo se requiere de la recopilación de datos de los usuarios y de solicitar su consentimiento para ser transparentes con sus clientes.

Mantener los altos estándares y la excelencia científica

Ya que el desarrollo de la inteligencia artificial también está ligado a la ciencia, Google indicó que esta innovación será tratada como parte de diferentes investigaciones científicas para ampliar los conocimientos que se tiene en diferentes ámbitos.

“Aspiramos a alcanzar altos estándares de excelencia científica mientras trabajamos para avanzar en el desarrollo de la IA”, indicó Google.

Estar disponible para usos que estén de acuerdo con estos principios.

Google también aseguró que, debido a que la inteligencia artificial es utilizada para diversos fines, estará dedicado a limitar usos potencialmente peligrosos o dañinos.

Guardar