Nuevo problema con imágenes creadas con inteligencia artificial, los monociclos son un desastre

Estos sistemas crean diseños con personas que tienen un ojo, pensando que son cíclopes

Guardar

Nuevo

Las imágenes generadas tienen errores al incluir monociclos, ya que el sistema no entendería cómo funciona este vehículo.
Las imágenes generadas tienen errores al incluir monociclos, ya que el sistema no entendería cómo funciona este vehículo.

Las manos fueron el primer gran problema de la inteligencia artificial al generar imágenes. Varias plataformas lograron corregir la situación y ya se han creado diseños más exactos, pero ahora surgió un nuevo problema: los monociclos.

Sistemas como Midjourney, Stable Diffusion o DALL-E2 están teniendo dificultades para crear imágenes en las que esté involucrado este tipo de vehículo, y al igual que sucedió con las manos, generan situaciones extrañas, que demuestran que aún les quedan elementos por corregir.

Le puede interesar: Cinco prácticas de ciberdelincuencia que pueden crecer con la inteligencia artificial

Por qué hay problemas con los monociclos

Rasmus Lerdof, un programador, fue uno de los que inició esta conversación al publicar una serie de imágenes en las que se ven claramente los errores que comete la IA al pedirle que genere un contenido en el que haya un monociclo.

Según él, la equivocación se da porque “aparentemente, es difícil para una IA comprender cómo funciona un monociclo”, que es un vehículo de una sola rueda, con pedales y un sillín.

Le puede interesar: ¿Puede la inteligencia artificial superar a los humanos en alfabetización y aritmética?

Las imágenes generadas tienen errores al incluir monociclos, ya que el sistema no entendería cómo funciona este vehículo.
Las imágenes generadas tienen errores al incluir monociclos, ya que el sistema no entendería cómo funciona este vehículo.

Los errores que suele arrojar el sistema son varios. El más evidente es un monociclo como si fuera una bicicleta partida a la mitad, poniéndole manubrio o haciendo que la persona esté sentada necesitando de otra parte del vehículo.

Le puede interesar: ChatGPT no es tan novedoso, estos son los chatbots que existieron antes

Otro problema es ubicar la rueda de forma frontal a la persona, haciendo ilógico el desplazamiento.

En Bing, que funciona con DALL-E2, hicimos pruebas para ver si también había errores y el más común fue ver cómo la IA generaba una persona con un solo ojo sobre un monociclo creyendo que le habíamos pedido que hiciera un cíclope, y le sumaba los fallos mencionados anteriormente.

Esta situación no solo se da con personas, porque al pedirle imágenes en las que hubiera animales también tuvo errores con posturas extrañas, vehículos con diseños fuera de lugar y cambios en el cuerpo de los animales.

Las imágenes generadas tienen errores al incluir monociclos, ya que el sistema no entendería cómo funciona este vehículo.
Las imágenes generadas tienen errores al incluir monociclos, ya que el sistema no entendería cómo funciona este vehículo.

El problema del monociclo se dio a conocer hace poco, por lo que aún no hay motivos que expliquen de mejor forma por qué la inteligencia artificial se confunde tanto al crear las imágenes.

La situación con las manos se originaba principalmente porque la información que los sistemas obtenían era muy escasa, ya que en las fotografías y el contenido que hay en internet pocas veces las personas muestran las manos, y cuando lo hacen siempre estaba agarrando algún objeto, realizando un gesto o no se veían completas las extremidades.

Le puede interesar: Manos con 6 dedos, dientes y más errores de imágenes hechas con inteligencia artificial

Eso ocasionó que las imágenes crearan manos de seis dedos, con formas extrañas e irreales.

Según Amelia Winger-Bearskin, artista y profesora asociada de IA y las artes en la Universidad de Florida, esta tecnología no entiende realmente qué es una mano o al menos no en la forma en que se conecta anatómicamente a un cuerpo humano. Algo que también podría estar sucediendo con los monociclos y quizás con más contenidos.

Primer bloqueo a ChatGPT

Italia bloqueará de forma temporal la inteligencia artificial ChatGPT tras una filtración de datos mientras investiga una posible infracción de las normas de protección de datos de la Unión Europea, informó el viernes el organismo supervisor de la privacidad.

La Autoridad de Protección de Datos italiana señaló que tomará medidas provisionales “hasta que ChatGPT respete la privacidad”, que incluyen la limitación temporal de que la empresa procese datos de usuarios italianos.

La empresa estadounidense OpenAI, que desarrolló el chatbot, indicó que había “desactivado ChatGPT para los usuarios de Italia a petición del organismo italiano” de control de la privacidad. La empresa cree que sus prácticas cumplen la legislación europea sobre privacidad y espera que ChatGPT vuelva a estar disponible en breve.

Guardar

Nuevo