Microsoft bloquea algunos términos con los que Copilot Designer generaba imágenes controvertidas y dañinas

Guardar

Microsoft ha comenzado a bloquear algunos términos como 'pro vida', 'pro elección' y 'cuatro veinte' en la herramienta de generación de imágenes impulsada por su asistente de Inteligencia Artificial (IA) generativa Copilot, en un intento de evitar la obtención de imágenes controvertidas y dañinas que no cumplen las políticas de contenido de la compañía. Un ingeniero de IA de Microsoft denunció recientemente que, tras realizar algunas pruebas para buscar posibles fallos o vulnerabilidades en la herramienta de IA generativa Copilot Designer -capaz de generar imágenes a partir de indicaciones de texto impulsadas por el modelo de Open AI DALL-E 3-, encontró que se pueden obtener imágenes dañinas que infringen los principios de IA responsable de Microsoft. Así, según este ingeniero, que forma parte del equipo rojo de la compañía (en el que se prueba la tecnología de IA de Microsoft), Copilot Designer genera imágenes controvertidas como la representación de monstruos al introducir términos relacionados con el derecho al aborto, adolescentes con rifles de asalto o imágenes de mujeres sexualizadas en escenarios violentos, además de mostrar el consumo de drogas y alcohol en menores de edad, entre otras cosas. En este marco, según informó CNBC la semana pasada, el ingeniero denunció la situación frente a la Comisión Federal de Comercio (FTC, por sus siglas en inglés), alegando que Microsoft se había negado a cesar la actividad de Copilot Designer, a pesar de las advertencias de los resultados que estaba consiguiendo en sus pruebas, que comenzó a compartir con la compañía en diciembre del pasado año. "Durante los últimos tres meses, he instado repetidamente a Microsoft a eliminar Copilot Designer del uso público hasta que se puedan implementar mejores salvaguardas", señaló a la FTC, al tiempo que afirmó que, desde Microsoft, no implementaron estos cambios y continuaron permitiendo el acceso a la herramienta "para cualquiera, en cualquier lugar y cualquier dispositivo". Ahora, tras esta denuncia, Microsoft ha comenzado a bloquear algunos términos que pueden permitir generar este tipo de imágenes controvertidas, como es el caso de los términos 'pro elección', 'pro vida' o 'cuatro veinte' (en referencia a la marihuana). Así lo han podido comprobar desde CNBC ya que, al intentar volver a recrear las imágenes dañinas denunciadas por el ingeniero de Microsoft, han encontrado que, en vez de generar las imágenes, Copilot Designer devuelve una advertencia que indica que el mensaje ha sido bloqueado. "Nuestro sistema marcó automáticamente este mensaje porque puede entrar en conflicto con nuestra política de contenido. Más violaciones de la política pueden dar lugar a la suspensión automática de su acceso. Si cree que se trata de un error, infórmenos para ayudarnos a mejorar", señala la herramienta de IA al introducir los términos descritos anteriormente. Dicho medio también ha explicado que, al solicitar crear una imagen violenta de, por ejemplo, menores jugando a ser asesinos con rifles de asalto, Copilot Designer responde que no puede generar dicha imagen porque va en contra de sus principios éticos y de las políticas de Microsoft. "Por favor, no me pidas que haga nada que pueda dañar u ofender a otros. Gracias por tu cooperación", concluye el asistente. Microsoft ha confirmado en declaraciones al mismo medio que están "monitorizando continuamente" la herramienta de cara a ajustar e implementar controles adicionales para "fortalecer aún más" los filtros de seguridad y, por tanto, "mitigar el uso indebido del sistema".

Guardar