La inteligencia artificial de Apple para iPhone, iPad y Mac que habla y detecta personas

Se podrán generar voces artificiales basadas en textos y es tan real que parece que el que hablra fuera el dueño del móvil

Guardar
iOS 17 (Macrumors)
iOS 17 (Macrumors)

Apple tiene nuevas características de accesibilidad con el sistema operativo iOS 17 que benefician a quienes tienen discapacidades cognitivas o físicas con el modo “Assistive Access”.

Asistencia visual y cognitiva

Esta característica potencia las funciones con una interfaz sencilla y la ampliación de los tamaños de las imágenes y textos para reducir la cantidad de información que se presenta, por ejemplo, en la galería, al tomar fotografías, hacer y recibir llamadas, escuchar música y enviar mensajes de texto.

Apple incluirá funciones de accesibilidad
Apple incluirá funciones de accesibilidad para el iPhone con el nuevo iOS 17. (Apple)

Tanto en iPhone como iPad, los usuarios podrán ver un aumento en el tamaño de las letras y los íconos de las aplicaciones. Todas estas funciones también estarán activas al momento de realizar videollamadas para facilitar la comunicación por video.

También, se podrá elegir entre un modo de mosaico en la pantalla de inicio o un modo de lista para visualizar las aplicaciones según el gusto particular del usuario.

Asistencia para hablar

Apple diseñó una función llamada “Live Speech” con la que usuarios de iPhone, iPad y Mac podrán escribir un texto y luego será leído por el dispositivo.

Esta función se activa de forma simultánea durante llamadas de voz y FaceTime.

Apple incluirá funciones de accesibilidad
Apple incluirá funciones de accesibilidad para el iPhone con el nuevo iOS 17. (Apple)

De igual forma, para quienes eventualmente podrían perder la capacidad de hablar, se habilitará una función adicional llamada Personal Voice que analiza la voz del usuario y crear una virtual que se aproxima a la versión original.

Las grabaciones, que incluyen alrededor de 150 frases que se deberán leer por parte del dueño del móvil, servirán para alimentar a una inteligencia artificial encargada de usar esos clips de audio para representar de forma fiel las características de la voz de una persona.

En caso de que el usuario tenga comprometida su capacidad de ver o la haya perdido por completo, iOS 17 ofrecerá una característica llamada “Point and Speak” en la que se abrirá la cámara del celular y el sistema empezará a leer en voz alta el texto que se haya apuntado con el dedo.

Esta función estará incorporada en la aplicación Lupa y puede ser activada para otros usos, como la detección de personas, puertas, descripciones de imágenes y otras que pueden ayudar a navegar.

Guardar