En un mundo cada vez más digitalizado, la inteligencia artificial (IA) se ha convertido en una herramienta indispensable en muchos aspectos de nuestras vidas, incluida la forma en que nos comunicamos.
La IA generativa promete aliviar la carga de la redacción de documentos y correos electrónicos, permitiéndonos dedicar más tiempo al pensamiento creativo. Sin embargo, el uso de esta tecnología también trae consigo preguntas importantes sobre la autenticidad y los riesgos éticos involucrados.
El avance de la tecnología prometió originalmente liberarnos de tareas repetitivas para enfocarnos en actividades más creativas. Ahora, la IA generativa pretende asumir una parte de esta carga, especialmente en la redacción de correspondencia como los correos electrónicos. Este fenómeno plantea cuestiones cruciales: ¿Es ético utilizarla y es posible identificar si un correo ha sido redactado por un bot?
Kathleen Day, profesora de comunicación empresarial, finanzas y gobernanza corporativa en Johns Hopkins Carey Business School, argumenta a Fast Company que los textos creados por IA nunca deberían usarse sin una revisión humana y que siempre deberían etiquetarse claramente cuando estén completamente generados por IA.
Sugiere que hacer pasar un texto generado por IA como propio equivale a una falta de honestidad y, en contextos formales como publicaciones, a un acto de plagio.
Por otro lado, Franklin Orellana, jefe de los programas de sistemas de información computacional y ciencias de datos en Post University, advierte en el artículo sobre los errores que pueden surgir en los textos redactados por IA, desde problemas sintácticos hasta información falsa que puede comprometer la credibilidad del autor.
¿Cómo identificar un texto generado por IA?
En el articulo de Fast Company, Madeleine Lambert, directora de marketing y ventas en Originality.ai, ofrece algunas pistas claras que pueden indicar cuando un texto ha sido generado por IA:
- Lenguaje plano y formal: la IA tiende a producir un lenguaje que es “demasiado perfecto”, caracterizado por una formalidad excesiva que puede no coincidir con el estilo típico del remitente. Esto puede hacer que los correos electrónicos parezcan impersonales y carentes de la emoción que usualmente impregna la comunicación humana.
- Estructura uniforme y repetitiva: a diferencia de los escritos humanos, que varían en longitud y estructura de frases, los generados por IA suelen mostrar una homogeneidad que puede resultar monótona. Lambert señala que la estructura y la longitud de las frases suelen ser muy consistentes, casi hasta el número de caracteres.
- Dominio de los puntos en la puntuación: mientras que los escritos humanos a menudo incluyen una variedad de signos de puntuación como dos puntos, puntos y comas y guiones, los textos de IA tienden a limitarse a puntos y comas, lo que puede dar una sensación mecánica a la lectura.
- Alucinaciones: las “alucinaciones” de IA, donde la plataforma genera datos o información falsa, son relativamente comunes y pueden ser profesionalmente dañinas si se pasa información incorrecta. La verificación rigurosa de los datos es crucial cuando se utiliza IA para escribir correspondencia.
La influencia de la inteligencia artificial en la comunicación
En el ámbito académico, la discusión sobre el impacto de la inteligencia artificial en la comunicación ha ganado prominencia gracias a investigaciones realizadas en instituciones de renombre como la Universidad de Stanford.
Jeff Hancock, el Harry and Norman Chandler Professor of Communication en Stanford y director fundador del Stanford Social Media Lab, ha explorado en profundidad cómo las herramientas de IA, al interceder en nuestras interacciones, podrían estar alterando la esencia de la comunicación humana.
En un estudio titulado “AI-Mediated Communication: Definition, Research Agenda, and Ethical Considerations”, publicado en el Journal of Computer-Mediated Communication, Hancock junto con colegas de Cornell, analizan las implicancias de la mediación de IA en la comunicación.
Argumentan que las sugerencias de redacción de IA, como las ofrecidas por herramientas como Gmail Smart Reply, pueden cambiar no solo el contenido de nuestras respuestas sino también el tono emocional de las mismas. Este fenómeno podría llevar a cambios en el lenguaje a una escala sin precedentes, influenciando cómo y qué comunicamos.
La “positividad” impuesta por las respuestas automatizadas de Gmail
Una investigación realizada tanto por Stanford como por Cornell identificó que las respuestas sugeridas por Gmail tienden a ser excesivamente positivas, independientemente del contexto de la comunicación.
Esta predisposición hacia lo positivo podría no solo limitar la autenticidad de nuestras respuestas sino también predisponer la reciprocidad emocional de manera artificial.
Los investigadores sugieren que esta positividad impuesta podría estar moldeando nuestras interacciones de maneras que aún no comprendemos completamente, llevando a una homogeneización del discurso que podría tener consecuencias culturales y sociales significativas.
Implicaciones éticas
La transparencia en el uso de la inteligencia artificial es esencial para mantener la autenticidad y la confianza en la comunicación. La ocultación del uso de IA puede ser percibida como deshonesta y potencialmente perjudicial, especialmente en contextos profesionales o académicos.
Según el estudio de Jeff Hancock en Stanford, la percepción de que un perfil o mensaje ha sido generado por IA puede erosionar la confianza, subrayando la importancia de informar claramente a los usuarios sobre el papel de la IA en la creación de contenido.
El uso indebido de la IA para actividades como el phishing o la difusión de información falsa (Fake news) resalta la necesidad de una supervisión humana rigurosa y un enfoque ético en todas nuestras interacciones digitales. La investigación de Stanford nos alerta sobre los sutiles pero significativos efectos que la IA puede tener en nuestra forma de comunicarnos.
A medida que esta tecnología se integra más en nuestro día a día, debemos evaluar cuidadosamente tanto sus beneficios como sus riesgos, asegurando que la humanidad de nuestra comunicación no se vea comprometida por la búsqueda de eficiencia.
Los desarrolladores y usuarios comparten la responsabilidad de implementar estas tecnologías de manera que se preserve la integridad de nuestras interacciones, garantizando que la evolución tecnológica no socave los pilares de nuestra comunicación humana.