Chris Dimitriadis (ISACA) aboga por las personas como uno de los pilares principales para fomentar la confianza digital

La confianza digital se fundamenta en las personas, según Chris Dimitriadis de ISACA, quien destaca la importancia de integrar ciberseguridad, inteligencia artificial y ética en el entorno tecnológico actual

Guardar

Los ecosistemas digitales, junto con la Inteligencia Artificial (IA) y la ciberseguridad, se están volviendo cada vez más importantes y complejos al ser la base principal de las operaciones de organizaciones y empresas, por lo que es "fundamental abordar esa complejidad" y "establecer confianza digital" basándose en las personas, tal y como ha puesto sobre la mesa el director de Estrategia Global de ISACA, Chris Dimitriadis.

La asociación de profesionales enfocada a ayudar a personas y organizaciones a impulsar la confianza digital, ISACA, celebró su 55 aniversario en octubre, durante su conferencia anual europea celebrada en Dublín (Irlanda), en la que se reunieron expertos y líderes de opinión para debatir cuestiones relacionadas con el mundo de la Tecnología de la Información (TI).

En este marco, en una entrevista concedida a Europa Press, Dimitriadis ha repasado algunos de los aspectos más relevantes del panorama tecnológico actual, en el que la IA, la confianza digital y la ciberseguridad son claves para el desarrollo e integración de las nuevas tecnologías, sobre todo, para las empresas y organismos que se encuentran en pleno proceso de adaptación para una realidad cada vez más digital.

Tal y como lo ha explicado el directivo, la confianza digital es un concepto que busca garantizar la "integridad" en las interacciones entre todos los actores dentro de un ecosistema digital, como son las empresas, personas, infraestructuras, proveedores, clientes y la propia tecnología.

Se trata de un planteamiento que busca encontrar un "enfoque holístico" para asegurar que todos los actores pueden confiar en el ecosistema digital. Esto implica combinar al mismo tiempo ciberseguridad, conocimiento, privacidad, el manejo de riesgos y el conocimiento de tecnologías emergentes, entre otras cuestiones.

"Se trata de conseguir una mejor comprensión de cómo las personas interaccionan con la tecnología, con el proceso, y de cómo se organiza todo el ecosistema tecnológico", ha manifestado, al tiempo que ha indicado que es un concepto que funciona cuando el ecosistema digital actúa "de acuerdo con las expectativas de las partes interesadas".

LAS PERSONAS COMO PILAR PARA LA CONFIANZA DIGITAL

Teniendo esto en mente, Dimitriadis ha puesto en valor la importancia de fomentar este concepto abogando principalmente por las personas, a las que se ha referido como uno de los pilares principales para impulsar la confianza digital.

Es decir, aunque los avances actuales están basados en la tecnología, siguen siendo las personas las encargadas de administrarla y hacer un buen uso de ella, para establecer un alto nivel de confianza digital que permita adoptar la digitalización como parte del día a día de las organizaciones e, incluso, de la sociedad. Así, según lo ha explicado, las organizaciones y compañías deben apostar por "las personas correctas", que sean capaces de "guiar" a la empresa "hacia la dirección correcta".

El factor humano es clave, además, para identificar los riesgos relevantes para un negocio, las medidas que deben ser tomadas al respecto y cómo llevar a cabo todo ello de manera eficiente a nivel de costes. De esta manera, las empresas deben disponer de un equipo formado y entrenado a nivel técnico, pero con un enfoque basado en la confianza digital, de otra manera, "nunca se van a ver cambios" en la forma de usar la tecnología.

ENTENDER LA IA PARA EVITAR LA DESCONFIANZA

Por otra parte, además de las personas, el directivo de ISACA también ha resaltado la necesidad entender qué es la IA y cómo se aplica en un proceso, aplicación o industria específica para fomentar la confianza digital.

"Normalmente lo que se desconoce crea más confusión. Por eso insistimos en que no importa lo bueno que seas en tu profesión, si eres de ciberseguridad, un auditor o, incluso, un experto en marketing, tienes que entender cómo funciona la IA", ha trasladado.

Tal y como ejemplifica Dimitriadis, este conocimiento se materializa en que los profesionales comprendan qué entradas están proporcionando al algoritmo para asegurarse de que no comparten datos falsos o que puedan ocasionar un sesgo en las decisiones del modelo. "Entrenamiento, entrenamiento, entrenamiento. Es muy, muy importante para que podamos entender la IA y cómo usarla", ha apostillado.

Asimismo, también ha hecho referencia a la importancia de tener en cuenta la ética y la responsabilidad a la hora de utilizar la IA para fomentar la confianza digital, algo que se recoge en la Ley de IA, el Reglamento Europeo de IA que vela por los intereses y derechos de los ciudadanos europeos.

"Tenemos que asegurarnos de que, primero de todo, el procesamiento de los datos y la salida del algoritmo de la AI sirven a lo que definimos como un propósito ético", ha indicado. Con ello, comprende desde el entrenamiento del algoritmo hasta la forma de operar de dicha tecnología.

Esto incluye la prohibición de algunos usos, como el de evaluar datos personales de los usuarios con un algoritmo para llevar a cabo un sistema de puntuación social que, basado en el comportamiento de las personas, clasifica a los usuarios para otorgar ciertos derechos o implementar sanciones.

Estas prohibiciones "son buenos ejemplos del uso inmoral de la IA", ha puntualizado, al tiempo que ha subrayado que hay que "tener mucho cuidado" cuando se aplican esos estándares éticos, porque "la AI es muy transformadora, no es solo otra tecnología".

"LA IA SIGUE EN SU INFANCIA"

Preguntado por la evolución de esta tecnología en los últimos años, el directivo ha advertido de que "la IA sigue en su infancia" y que, por tanto, "el daño que puede hacer hoy en día es un poco más limitado que lo que veremos en el futuro".

Aunque actualmente las aplicaciones de esta tecnología generan valor positivo, en términos de, por ejemplo, mejorar sistemas de ciberseguridad o proporcionar múltiples herramientas a los profesionales, Dimitriadis ha reiterado que todavía está en "una fase piloto". Por tanto, a veces su uso incurre en malas prácticas, como la manipulación de opiniones o la creación de noticias falsas.

Al respecto, ha subrayado que, en lo relativo a la evolución de la IA en el futuro, se ha de tener en cuenta cómo puede afectar su mal uso, y que todo se remonta a la intención con la que los usuarios utilicen esta tecnología y a la regulación.

LEGISLAR PARA AUMENTAR LA SEGURIDAD

A nivel europeo, Dimitriadis ha puesto en valor las normativas que se están implementando al respecto. En concreto, ha mencionado la Directiva NIS sobre seguridad cibernética, la normativa DORA (Ley de resiliencia operativa digital) sobre seguridad y confianza en el sector financiero -incluido cómo enfrentar los ciberataques-, y la Ley de IA, sobre cómo desplegar y operar algoritmos de IA en Europa.

Según ha expresado el directivo de ISACA, "tener estas áreas más reguladas, considerando los avances de la IA en Europa, es clave", ya que afecta a la soberanía europea, a la seguridad de los ciudadanos europeos y a la protección de la economía de la región. Así, desde ISACA pretenden ayudar a guiar a las empresas y organizaciones a implementar esas regulaciones, creando "la fuerza de trabajo necesaria" para cumplirlas.

La regulación está actualmente dirigiendo a la industria "hacia una manera de crear más conciencia y más requerimientos de confianza para asegurarse de que Europa esté protegida", ha concluido.

Guardar