¿Cuál es el papel de la regulación en la IA?

No se trata de un obstáculo para la innovación, sino de una oportunidad de consenso sobre la transparencia

Inteligencia artificial: es necesaria una sinergia de esfuerzos entre los gobiernos, las organizaciones y las personas

¿Qué pensamos cuando nos hablan de Inteligencia Artificial (IA)? Probablemente todos tenemos conceptos diferentes basados en los enormes avances que esta tecnología ha venido teniendo. Hoy, bancos, comercios, empresas de telecomunicaciones y hasta la industria del entretenimiento ya tienen casos de uso. Y este crecimiento, por supuesto, también ha traído la discusión sobre si la IA debe ser -o es- una caja negra.

Hay que partir del hecho de que la Inteligencia Artificial no es una tecnología nueva. Se viene desarrollando por más de siete décadas y la necesidad de modelos responsables se viene trabajando hace años.

Muchos hablan de que la IA podría verse como una caja negra, al no tener visibilidad sobre las conclusiones o datos que procesa esta tecnología. Sin embargo, la IA debe -y puede- ser una caja de cristal, completamente transparente, en la medida en que, tanto el proveedor de la tecnología como quien la usa, ‘alimenten’ la IA con datos objetivos y verídicos, y que además haya visibilidad de cómo la herramienta llegó a esa conclusión, con modelos libres de sesgos, transparentes y equitativos. Y en esa línea justamente va el concepto de regulación.

Te puede interesar: Seis páginas web gratuitas para crear imágenes con inteligencia artificial

En el mundo, hoy varios países ya tienen una regulación o están en la discusión de establecer una regulación clara alrededor de la IA. La regulación busca definir las reglas de juego en el uso de la IA, es la forma de ‘marcar la cancha’ sabiendo que no se trata de un obstáculo para la innovación, sino una oportunidad de consenso sobre la transparencia, la ética y la explicabilidad que debe tener la IA. Y los primeros beneficiados somos todos, como sociedad, al tener un marco de protección de nuestros datos personales.

Ser una caja negra o una caja de cristal, el concepto la clave para la regulación de la Inteligencia Artificial

La IA utiliza grandes cantidades de información para aprender y mejorar su rendimiento. En el centro de la tecnología deben estar las personas. Se trata de avanzar con responsabilidad. ¿Cuál es el impacto sobre las personas? Esta pregunta debe guiarnos.

Para construir una Inteligencia Artificial confiable, por ejemplo, debemos definir los pilares éticos que rigen el desarrollo e implementación de la tecnología alrededor del mundo: explicabilidad, equidad, robustez, transparencia y privacidad. Nuestro país no es la excepción.

La regulación de la Inteligencia Artificial arraiga responsabilidad para múltiples partes interesadas. Para avanzar con este compromiso es necesaria una sinergia de esfuerzos entre los gobiernos, las organizaciones y las personas. Dentro de esta colaboración, las empresas juegan un papel clave al asumir el diseño de la IA de manera responsable en el micromundo de su propio negocio. Un diseño que alcanza no solo la tecnología, si no la manera en que se implementa, la educación sobre la misma y la gestión del talento involucrado.

Seguir leyendo: