iOS 17 FaceTime te permite escribir palabras que «hablan» por ti: 3 funciones nuevas más que te sorprenderán

Apple ha anunciado una serie de nuevas actualizaciones de accesibilidad que llegarán a iOS 17, incluida una nueva función que le permite hablar en FaceTime con sus seres queridos sin decir una sola sílaba. ¿Como? Tendrá la capacidad de escribir palabras en la aplicación FaceTime, que «hablará» el texto a la persona que recibe la llamada.

Y esto es sólo el principio. El gigante tecnológico con sede en Cupertino ha revelado algunas funciones de accesibilidad más que deberían implementarse en los iPhone compatibles para fines de este año.

Voz en vivo iOS 17

Como se mencionó, puede escribir lo que quiera decirles a sus seres queridos a través de FaceTime con una función de iOS 17 llamada Live Speech. Este beneficio no solo permite que su voz hable por usted durante FaceTime, sino que también puede invocarla durante conversaciones telefónicas y en persona.

Voz personal de iOS 17

Los usuarios también tendrán acceso a frases de uso común, lo que facilitará conversaciones más fluidas con amigos, familiares y colegas. Esta característica de accesibilidad está diseñada para ayudar a los usuarios que no hablan, pero también puede ser útil para aquellos que han perdido temporalmente la voz (por ejemplo, enfermedad o lesión en las cuerdas vocales durante una sesión improvisada).

Live Speech estará disponible en iPhone, iPad y Mac.

Voz personal de iOS 17

Si no quieres que un robot hable por ti, no te preocupes. La inteligencia artificial está aquí para salvar el día. Apple está implementando una nueva característica llamada Personal Voice que te permite crear una voz que imita tu interpretación.

Voz personal de iOS 17

Puedes hacer esto leyendo una serie aleatoria de mensajes de texto para grabar 15 minutos de audio (esto se puede hacer en un iPhone o iPad). Una vez completado, Personal Voice se integra a la perfección con Live Speech para que pueda usar la réplica de voz para conectarse con sus seres queridos.

Personal Voice aprovecha las capacidades de aprendizaje automático proporcionadas por iPhone y iPad.

Acceso asistido iOS 17

El acceso asistido divide las aplicaciones en sus elementos esenciales, lo que beneficia a los usuarios con discapacidades cognitivas. Por ejemplo, con Assistive Access, la aplicación Cámara se convierte en un mínimo, lo que ayuda a aligerar su carga cognitiva. Solo hay un visor, un botón «Tomar foto» y un botón «Atrás», eso es todo.

acceso asistido

Otro ejemplo es la aplicación Mensajes, que viene con un solo teclado emoji en el modo Acceso asistido. Además, para un fácil acceso. hay un botón que da a los usuarios la opción de grabar un mensaje de video para compartir con otros. Además, la pantalla de inicio se puede colocar en un formato basado en cuadrículas o series, lo que facilita la vista del usuario.

acceso asistido

Apple dice que Assistive Access se creó con los comentarios de los usuarios con discapacidades cognitivas, lo que garantiza que los iDevices conserven los componentes básicos esenciales del iPhone y el iPad sin abrumar a los usuarios con una sobrecarga de estímulos.

Modo de descubrimiento de iOS 17 en la lupa

Los usuarios ciegos o con baja visión pueden usar una nueva función llamada Modo de seguimiento, que reside en la Lupa. Con esta nueva función, los usuarios pueden activar la aplicación Cámara, tocar la Lupa y apuntar con el punto de mira a objetos físicos del mundo real con texto. A continuación, el dispositivo leerá las etiquetas al usuario.

Modo de detección de iOS 17

Por ejemplo, si tiene problemas para leer lo que está etiquetado en su microondas, puede apuntar la aplicación de la cámara al texto y lo leerá en voz alta por usted. Apple dice que esto es posible gracias al aprendizaje automático en el dispositivo y al escáner LiDAR en el iPhone y el iPad.

Se espera que estas funciones lleguen a iOS 17, junto con la nueva serie de iPhone 15, a finales de este año.

Publicaciones Similares