El uso de herramientas como ChatGPT se ha extendido a los espacios de trabajo. Los usuarios aprovechan la IA para diferentes tareas y optimizar su tiempo. Pero como todo servicio en internet, existen una serie de riesgos que se deben tener en cuenta para no ceder datos importantes y ponernos en peligro a nosotros mismos o a la compañía.
Al ver las oportunidades de mejora gracias a la IA, las empresas han implementado esta tecnología para, por ejemplo, tener una atención al cliente y soporte técnico automatizado, así como para traducir documentos y generar contenidos web. Labores en las que hay un alto flujo de datos y hay que tener muchos cuidados.
Riesgos de usar ChatGPT en el trabajo
- Seguridad de la información
Uno de los riesgos más significativos es la seguridad de la información. ChatGPT, al igual que otras herramientas de IA, recopila y guarda todo lo que se escribe en ella, utilizando estos datos para mejorar sus futuras respuestas.
Esto significa que cualquier información sensible compartida, ya sea de forma intencionada o accidental, podría ser vulnerable a la exposición. Por ejemplo, si un desarrollador pide a al chatbot que depure un código o si se transmiten datos personales de empleados, esta información podría terminar expuesta a otros usuarios.
- Falta de transparencia en los resultados de capacitación
Otro riesgo importante es la falta de transparencia en los resultados de las pruebas de capacitación. ChatGPT puede responder preguntas de manera automática y rápida durante evaluaciones laborales. Si los empleados utilizan la herramienta para “saltarse” capacitaciones importantes, aprobando las evaluaciones sin haber adquirido realmente el conocimiento, esto puede tener consecuencias negativas para la organización.
- Evaluación dudosa de las habilidades laborales
Relacionado con lo anterior, la evaluación de las habilidades laborales puede volverse dudosa. ChatGPT puede proporcionar instrucciones paso a paso para completar tareas específicas dentro de software como Excel, Salesforce o Google Analytics.
Si los empleados logran obtener ascensos o promociones basados en habilidades adquiridas artificialmente mediante la IA, la empresa corre el riesgo de depender de un personal cuyo verdadero desempeño no está alineado con sus calificaciones personales.
- Integridad de los exámenes de certificación
Participantes de evaluaciones para certificaciones pueden utilizar ChatGPT para responder o incluso completar problemas complejos. Si las empresas emiten certificaciones sin verificar la autenticidad de las respuestas, se puede dañar gravemente la reputación de los programas de certificación y, por ende, la percepción de la marca por parte de los clientes y la comunidad.
- Evaluación de nuevos candidatos
En procesos de contratación, es cada vez más frecuente que los postulantes utilicen herramientas como ChatGPT para aprobar evaluaciones que normalmente requieren una experiencia profunda. Esto plantea un riesgo significativo, ya que contratar a personas cuyas habilidades y conocimientos han sido sobrevalorados por el uso de IA podría resultar costoso a largo plazo para la empresa.
Cómo evitar estos riesgos y seguir usando ChatGPT
Para evitar estos problemas, las empresas deben implementar prácticas adecuadas de control de la IA y establecer límites claros para el uso de ChatGPT. Aquí algunos consejos y estrategias:
- Solicitar respuestas basadas en casos específicos
Una forma de hacer que ChatGPT sea menos efectivo en evaluaciones es solicitar respuestas a preguntas basadas en casos actuales y específicos de la empresa. La IA no tiene acceso a recursos específicos y recientes de la organización, lo que limita su capacidad para generar respuestas precisas.
- Uso de software de bloqueo del navegador
Aunque limitado, el uso de software que bloquee el acceso a ciertas aplicaciones durante evaluaciones puede ser útil. Sin embargo, es importante asegurarse de que los evaluados no tengan acceso a dispositivos adicionales como teléfonos móviles.
- Supervisión en línea automatizada
El uso de software de supervisión en línea, puede ser una solución efectiva. Este tipo de software restringe el acceso a sitios web, aplicaciones y extensiones de IA durante las evaluaciones, monitorea la sesión mediante reconocimiento facial y grabación de pantalla, inhabilita atajos de teclado comunes y escanea la sala en busca de otros dispositivos no autorizados.
Además, emite reportes detallados que permiten a los evaluadores tomar medidas rápidas y apropiadas en caso de detectar uso indebido de la IA.