🇨🇴En nuestro WhatsApp siempre hay algo bueno📲

Apple y la accesibilidad: tu iPhone muy pronto podrá hablar con tu voz, con solo 15 minutos de entrenamiento

Apple mostró oficialmente nuevas funciones de accesibilidad que llegarán a iOS en los próximos meses. Dentro de las más interesantes, la nueva función de ‘Voz personal’ permite sintetizar nuestra voz para utilizarla en llamadas, Facetime o incluso conversaciones físicas.

Esta función está pensada especialmente para personas con discapacidades relacionadas a la voz o que han perdido su voz como consecuencia de una enfermedad, como la esclerosis lateral amiotrófica (ELA o ALS en inglés).

A pesar de su loable intención, cabe preguntarse los riesgos asociados a la generación, por parte de un dispositivo, de una voz creíble, en especial cuando todos los días parecen surgir nuevos casos de fraude asistido por tecnología. Apple buscó calmar esas preocupaciones explicando que esta función utiliza elementos de machine learning integrados en el dispositivo, por lo que las notas de voz no son enviadas en ningún momento a ningún servidor externo.

En otras palabras, la voz clonada vivirá en el teléfono del usuario, y en ningún otro lugar, evitando así que otros puedan accedan a ella. 

Tan solo 15 minutos

De acuerdo con Apple, los usuarios pueden crear esta voz personal leyendo algunas frases sencillas en voz alta. En total son alrededor de 150 frases, que toman unos 15 minutos de audio en el iPhone o el iPad.

La voz personal estará integrada con las ventajas de ‘Live Speech’, lo que se traduce  a que los usuarios pueden simplemente escribir en el teléfono lo que quieren decir y el dispositivo lo dirá en voz alta. 

Por como lo describe Apple, se trata de un sistema similar a la función de clonación de voz de Samsung, que se lanzó en ciertos teléfonos de la línea Galaxy. La diferencia es que, mientras Samsung usa esa tecnología para mejorar la calidad de la voz en condiciones de ruido, Apple la lanzó como una función de accesibilidad.

Más opciones de accesibilidad

Si bien el sintetizador de voz es la función más llamativa, lo cierto es que Apple está planeando muchas más ventajas de accesibilidad en sus dispositivos.

La compañía mostró una función llamada ‘Acceso asistido’, que esencialmente convierte todas las funciones y apps básicas en su forma más sencilla y entendible. Muchas apps ganarán cosas como un botón dedicado para ir atrás y reemplazar los gestos, o un botón mucho más grande y con texto para tomar fotos.

Las apps de Apple tendrán nombres más básicos e íconos más grandes, como ‘Cámara’, ‘Llamadas’ o ‘Música’. Estas apps también tendrán modos de alto contraste, textos más grandes y herramientas de accesibilidad adicionales.

Por último, Apple también va a introducir un modo de lupa inteligente. Utilizando la cámara y los sensores del teléfonos, así como recursos de inteligencia artificial, los usuarios podrán indicarle al teléfono que analice texto muy pequeño y lo lea en voz alta a medida que el usuario mueve su dedo.

El sistema también puede funcionar para detectar personas, puertas y dar descripciones de imágenes, funciones que resultan especialmente importantes para personas con discapacidades visuales.

Aunque Apple no indicó fecha de lanzamiento, es muy probable que veamos muchas de estas funciones en el WWDC 2023, programado para la primera semana de junio. Es probable que podamos ver estas funciones implementadas y lanzadas oficialmente junto con iOS 17.



Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia