Apple ha decidido que la IA se empleará para ayudar a personas con discapacidades cognitivas como la afasia. Pero antes de eso, Apple ha mencionado que entre las novedades han implementado una interfaz táctil que se denomina "Acceso Asistido". Esta se encargará de mostrar las aplicaciones más usadas en cuadrículas, lo que permitirá ayudar a las personas con problemas de motricidad.
Podremos entrenar a la IA con 150 frases para que imite nuestra voz
Habrá aplicaciones que recibirán mejoras de accesibilidad como Mensajes, donde se tendrá un teclado ampliado solo para emojis o la posibilidad de grabar mensajes de vídeo. Otra función destinada a quienes tienen dificultad para leer se denomina "Apuntar y Hablar" y se encontrará en la aplicación Lupa del iPhone. Esta permitirá que señales algo específico en el mundo real para que el iPhone te diga que es por voz.
Live Speech de Apple
Tras esto vamos quizá a lo más interesante de Apple y es en lo referente a la IA que imita nuestra voz. La compañía ha anunciado así la función de Personal Voice, la cual estará implementado dentro de otra característica de accesibilidad denominada Live Speech. Personal Voice nos permitirá entrenar a una IA para que hable con nuestra propia voz. La fase de entrenamiento será sencilla, pues tendremos que leer unas 150 frases, el equivalente a unos 15 minutos de discurso.
Una vez hecho esto, la IA será capaz de imitar nuestra voz cada vez que usamos Live Speech. Esta función permitirá a los pacientes a conservar su voz cuando estén sufriendo una enfermedad que está acabando con su capacidad de hablar. Sobre el momento en el que Apple lanzará estas nuevas funciones de accesibilidad no sabemos nada, pero se espera que lleguen con iOS 17 en septiembre.
Fuentes:
https://www.apple.com/newsroom/2023/05/apple-previews-live-speech-personal-voice-and-more-new-accessibility-features/
https://elchapuzasinformatico.com/2023/05/apple-ia-voz-iphone-ipad/



No hay comentarios:
Publicar un comentario