“Por favor, muérete”: la amenazante respuesta del chatbot de Google a un estudiante de Michigan

El incidente ocurrió mientras el joven buscaba ayuda para sus tareas escolares. La respuesta de la IA Gemini provocó preocupación por los riesgos psicológicos y abrió el debate sobre la regulación

Guardar
La experiencia de Reddy resalta
La experiencia de Reddy resalta la necesidad de reforzar las medidas de seguridad en chatbots. (REUTERS/Dado Ruvic)

Durante lo que parecía ser una consulta rutinaria, Vidhay Reddy, un estudiante universitario de Michigan, vivió una experiencia que nunca imaginó: un chatbot desarrollado por Google, conocido como Gemini, le envió un mensaje profundamente amenazante. La interacción, que comenzó como una conversación sobre los desafíos de los adultos mayores, dio un giro inquietante cuando el programa le respondió con una serie de frases perturbadoras, culminando con un contundente “Por favor, muérete”.

Reddy, quien buscaba ayuda para sus tareas mientras estaba acompañado por su hermana, Sumedha, quedó conmocionado por la agresividad del mensaje. Según relató a CBS News, el impacto emocional fue tan fuerte que le tomó más de un día procesar lo ocurrido. Este evento, más allá de causar alarma, puso en el centro del debate la seguridad y la fiabilidad de las tecnologías de inteligencia artificial que se diseñan para interactuar con los usuarios.

El riesgo de las IA y el daño psicológico

El impacto emocional de la interacción entre Gemini y Reddy reavivó los riesgos potenciales de la inteligencia artificial cuando no se implementan adecuadamente mecanismos de seguridad. Para el estudiante, el mensaje del chatbot fue más que un error técnico: “Si alguien que estuviera solo y en un mal estado mental leyera algo como esto, podría llevarlos al límite,” afirmó, resaltando la gravedad de las posibles consecuencias psicológicas.

Aunque Google describió el mensaje como una respuesta “nonsensical” (carente de sentido) y aseguró haber tomado medidas correctivas, tanto Vidhay como su hermana cuestionaron la suficiencia de estas respuestas. Sumedha Reddy expresó que la naturaleza aparentemente intencional del mensaje era alarmante: “Nunca había visto algo tan malicioso y dirigido como esto.”

La falta de medidas preventivas robustas no solo plantea preguntas sobre la seguridad de estos sistemas, sino que también abre el debate sobre la liabilidad de las compañías tecnológicas cuando sus productos generan daño psicológico.

Distintos casos de respuestas erróneas
Distintos casos de respuestas erróneas demuestran los desafíos de las plataformas de inteligencia artificial. (Google/EuropaPress)

Desafíos en la regulación de la inteligencia artificial

El caso de Gemini no es un incidente aislado. En los últimos años, los modelos de IA fueron objeto de escrutinio por sus respuestas potencialmente peligrosas o erróneas. Además del mensaje amenazante dirigido a Vidhay Reddy, otras plataformas de inteligencia artificial han enfrentado denuncias por resultados problemáticos, como en el caso de un chatbot que habría alentado el suicidio de un adolescente en Florida, según una demanda presentada por su madre.

Estos incidentes evidencian los desafíos inherentes a la implementación de la IA en un entorno accesible al público. Por un lado, existe una creciente demanda de estas herramientas por su capacidad de procesar y generar información de manera eficiente; por otro, los riesgos asociados a respuestas impredecibles han puesto en duda su fiabilidad. La regulación de estas tecnologías aún se encuentra en etapas iniciales, y las medidas implementadas hasta ahora, como filtros de seguridad y evaluaciones éticas, no han sido suficientes para evitar problemas como el que afectó a Reddy.

Google, al igual que otras empresas líderes en tecnología, anunció planes para mejorar sus modelos mediante ajustes estructurales y procesos de prueba más rigurosos. Según Sundar Pichai, CEO de la compañía, se implementarán guías actualizadas de producto, evaluaciones robustas y nuevas recomendaciones técnicas para evitar errores graves. Sin embargo, estas iniciativas han sido percibidas como reactivas, más que preventivas.

El debate sobre la regulación de la IA no solo involucra cuestiones técnicas, sino también preguntas éticas fundamentales: ¿cómo deben diseñarse estas tecnologías para minimizar el daño? ¿Quién debe ser responsable cuando una respuesta genera consecuencias graves? Este tipo de incidentes destaca la necesidad urgente de desarrollar un marco normativo que combine la innovación con la seguridad del usuario.

Guardar

Últimas Noticias

Dos pilotos de la Armada de EEUU fueron derribados por “fuego amigo” en el Mar Rojo tras haber enfrentado un ataque hostil con drones y misiles por parte de los hutíes

“El crucero lanzamisiles USS Gettysburg, que forma parte del grupo de ataque del portaaviones USS Harry S. Truman, disparó erróneamente contra el F/A-18″, afirmó Comando Central de Estados Unidos (CENTCOM)
Dos pilotos de la Armada

Nueva York obligará a aseguradoras a cubrir terapia de gorro frío para pacientes con cáncer

La medida busca reducir el impacto emocional de la quimioterapia y facilitar el acceso a tratamientos que preservan el cabello durante el proceso oncológico
Nueva York obligará a aseguradoras

Donald Trump amenazó con exigir la devolución del Canal de Panamá por las “ridículas” tarifas que cobra el país centroamericano

El líder republicano destacó que Estados Unidos es el principal usuario del Canal, representando más del 70% de los tránsitos que se dirigen a puertos norteamericanos o parten de ellos
Donald Trump amenazó con exigir

Adolescente mató a su familia en Nuevo México tras oír voces; la policía difundió imágenes del lugar del crimen

El joven de 16 años confesó los homicidios tras llamar al 911 en la madrugada, entregándose sin oponer resistencia
Adolescente mató a su familia

Niño de 8 años salvó a su compañero de atragantamiento con la maniobra de Heimlich en una escuela de Arizona

El estudiante de primaria actuó de forma inmediata al notar que su amigo no podía respirar durante el almuerzo, interviniendo sin la ayuda de un adulto y recibiendo reconocimiento por su valentía
Niño de 8 años salvó