Cuidado: esto es lo que nunca debes preguntarle al nuevo círculo azul de WhatsApp, la IA de Meta

El chatbot o asistente virtual también está en Instagram de manera gratuita

Guardar
Esta función de la app no responde todo lo que se le quiera solicitar. (Foto: Meta)
Esta función de la app no responde todo lo que se le quiera solicitar. (Foto: Meta)

La app de mensajería instantánea WhatsApp comenzó a incorporar un nuevo chatbot de inteligencia artificial desarrollado por Meta. Esta IA permite a los usuarios realizar distintas acciones, desde pedir recomendaciones sobre cómo hacer algún trabajo académico o solicitar imágenes de acuerdo a lo que se le ordene.

Este chatbot llamado Meta AI, está señalizado en la aplicación en forma de un círculo azul y al usarlo se guarda como una conversación más en la lista de contactos. La actualización no requiere de aplicaciones adicionales ni de suscripciones de pago; únicamente es necesario mantener la plataforma actualizada para acceder a esta función.

Para los usuarios que ya la comenzaron a usar, y también para los que no, es importante saber que no todo es un tema de conversación para la inteligencia artificial de Meta. Hay ciertos asuntos sensibles que el chatbot no puede tratar y que evitará ante cualquier insistencia.

Qué nunca se debe preguntar a la inteligencia artificial de WhatsApp

La IA de Meta no recibe temas que sean inapropiados para menores de edad. (Foto: REUTERS/Dado Ruvic/Ilustración/Archivo)
La IA de Meta no recibe temas que sean inapropiados para menores de edad. (Foto: REUTERS/Dado Ruvic/Ilustración/Archivo)

Para saber lo que nunca se puede preguntar a Meta AI en WhatsApp, le solicitamos al mismo chatbot la respuesta, que consistió en cinco temas que están prohibidos tratar por la inteligencia artificial.

El primer tema mencionado es el contenido explícito o inapropiado. De acuerdo con Meta AI, está programada para evitar cualquier tipo de contenido que incluya conversaciones de naturaleza sexual, material grosero o cualquier tipo de lenguaje que se considere ofensivo.

Si un usuario intenta entablar una conversación sobre alguno de estos temas, el asistente redirigirá la conversación hacia un tema diferente. Puede, por ejemplo, sugerir temas relacionados con entretenimiento, tecnología o cultura, que sean aptos y seguros para el entorno del chat.

Qué piensa la inteligencia artificial de WhatsApp de mensajes de violencia y odio

Imágenes ni texto referentes a violencia puede crear la IA de Meta. (Foto: Europa Press)
Imágenes ni texto referentes a violencia puede crear la IA de Meta. (Foto: Europa Press)

Mensajes de violencia, odio y discriminación es otro de los temas que no se deben solicitar a la inteligencia artificial de WhatsApp. Esto incluye comentarios racistas, homofóbicos, xenofóbicos o cualquier otro tipo de discurso que fomente el odio basado en religión, género, etnia o cualquier otra característica personal.

En situaciones donde un usuario comience a tratar alguno de estos temas, el asistente buscará desviar la conversación hacia tópicos totalmente distintos, promoviendo el respeto y la inclusión.

¿Puedo pedir información privada o íntima a la IA de WhatsApp?

Los temas que impliquen la divulgación de información personal o confidencial son también de alta prioridad para Meta AI. Esto incluye datos como direcciones, números de teléfono, información bancaria y cualquier otra información privada que podría comprometer la seguridad del usuario.

Datos como dirección, contraseñas, u otra información sensible no puede dar información la IA. (Imagen Ilustrativa Infobae)
Datos como dirección, contraseñas, u otra información sensible no puede dar información la IA. (Imagen Ilustrativa Infobae)

En estos casos, Meta AI no solicitará ni guardará este tipo de información. En lugar de ello, el asistente puede explicar la importancia de mantener la privacidad y seguridad en el entorno digital, recomendando buenas prácticas como nunca compartir datos personales en plataformas públicas.

Por qué no pedirle consejos médicos a la inteligencia artificial de WhatsApp

Meta AI puede ofrecer información general en temas de salud y legales, pero no está diseñado para reemplazar el consejo de profesionales calificados. Al tratarse de temas complejos y que varían en cada caso individual, ofrecer asesoramiento médico o legal específico puede tener consecuencias negativas importantes.

Si se le solicita consejo sobre estas áreas, el asistente facilitará información general, como datos educativos sobre un tema de salud o la explicación de leyes vigentes, insistiendo en la importancia de consultar a un médico o abogado para obtener consejos acertados y personalizados.

La IA de Meta no puede suministrar un diagnóstico clínico. (Imagen Ilustrativa Infobae)
La IA de Meta no puede suministrar un diagnóstico clínico. (Imagen Ilustrativa Infobae)

¿Puedo solicitar a la IA de WhatsApp que realice un delito?

Meta AI está completamente programado para evitar cualquier discusión que involucre actividades ilegales o dañinas. Esto incluye, pero no se limita a, información sobre drogas, delincuencia, piratería informática, o cualquier actividad que implique daño físico o emocional a otros.

En el caso de que se intente iniciar una conversación sobre alguno de estos tópicos, el asistente se alejará de la conversación, recordando al usuario las consecuencias legales y morales de tales actos, y redirigiendo el diálogo a actividades legales y seguras.

Qué hace la IA de WhatsApp si le preguntan temas que están prohíbidos

Meta AI tiene diferentes maneras de proceder para asegurarse de que las conversaciones se mantengan dentro de un marco seguro. Además de redirigir la conversación y ofrecer recursos generales, es posible que el asistente pida al usuario que elija un tema diferente,

Meta AI también puede sugerir enlaces a páginas web autorizadas y fuentes confiables donde los usuarios puedan obtener la información que buscan de una manera segura y legal.

Guardar