En la era tecnológica actual, la ciberseguridad se ha convertido en una preocupación primordial para los usuarios de ChatGPT y otras herramientas de inteligencia artificial. La popularidad de esta herramienta, desarrollada por OpenAI, ha ido en aumento debido a su capacidad para producir contenido que imita la escritura humana.
Sin embargo, esta ayuda al talento humano no está exenta de riesgos. A pesar de contar con múltiples medidas de seguridad para proteger la privacidad y seguridad de sus usuarios, existen amenazas como el phishing, el malware, entre otras, las cuales requieren que los usuarios practiquen una revisión digital adecuada y estén informados sobre cómo pueden ser mal utilizadas estas innovadoras herramientas.
Delitos informáticos que usan ChatGPT
Con las recientes violaciones de datos, junto con el avance de las técnicas de ciberdelincuencia como el phishing, el desarrollo de malware y el catfishing, han generado una creciente preocupación sobre la seguridad en línea. Estos ataques no sólo comprometen la privacidad de los individuos, sino que también ofrecen a los delincuentes nuevas herramientas para perpetrar fraudes y estafas electrónicas. De acuerdo con la empresa experta en ciberseguridad Norton, estos son los delitos más recurrentes en el ciberespacio.
En primer lugar están las filtraciones de datos, información privada y confidencial que se ve expuesta sin autorización, abriendo la puerta a posibles robos de identidad. Esto podría ocurrir incluso con datos proporcionados en conversaciones aparentemente seguras, como las mantenidas a través de inteligencias artificiales conversacionales.
También, el phishing , aprovecha la capacidad de ciertas IA para crear comunicaciones engañosas altamente realistas. Estas tácticas no se limitan a correos electrónicos tradicionales, sino que también abarcan métodos más elaborados que simulan ser fuentes confiables de información, engañando a usuarios para que revelen datos sensibles.
Asimismo, el malware sigue siendo una herramienta popular entre ciberdelincuentes, quienes ahora encuentran en el ChatGPT un aliado para escribir o mejorar un código malicioso. A pesar de las medidas de seguridad implementadas por los desarrolladores de IA para prevenir estos abusos, han habido instancias en las que estas barreras han sido superadas.
Del mismo modo, el catfishing, que implica la creación de identidades falsas en línea, se ha vuelto más convincente con el uso de inteligencia artificial para generar diálogos creíbles, dificultando aún más la distinción entre interacciones auténticas y artificiales.
Cómo protegerse de las estafas que usan inteligencia artificial
Las acciones delictivas antes mencionadas no solo subrayan los avances de los ciberdelincuentes para aprovechar las nuevas tecnologías, sino también la importancia de una buena vigilancia y educación sobre las mejores prácticas de seguridad en línea para evitar caer en estas trampas digitales.
Un aspecto primordial es revisar las políticas de privacidad de las herramientas que se utilizan, como OpenAI, propietaria de ChatGPT, junto con comprender cómo se procesan y protegen los datos personales proporciona una visión clara del nivel de seguridad y los derechos de los usuarios sobre su información.
Además, se sugiere el uso de cuentas anónimas durante la interacción con estas inteligencias artificiales. Esta medida podría ofrecer una capa extra de privacidad, aunque se debe considerar que el registro puede requerir la verificación mediante un número de teléfono.
Entre tanto, la creación y gestión de contraseñas robustas y únicas es otra estrategia. La adopción de buenas prácticas en la configuración de contraseñas, como la renovación periódica de las mismas, contribuye a una mayor seguridad de las cuentas de usuario.
Es de igual relevancia que las personas se mantegan informadas sobre las últimas tendencias y amenazas en seguridad de inteligencia artificial y las estafas en línea. El conocimiento actualizado sirve para prevenir posibles riesgos y asegurar una experiencia digital segura.