Apple está trabajando en hacer que los AirPods puedan traducir conversaciones en tiempo real, gracias a Apple Intelligence en combinación con la aplicación propia Translate.
Según dice Apple, todo lo relativo a Apple Intelligence se guarda de forma privada en el dispositivo y si tiene que ir a “la nube” a hacer alguna consulta, esa nube es privada, con lo que nadie podrá tener acceso a las conversaciones privadas… siempre según lo que Apple ha asegurado.
No veremos esta nueva función hasta iOS 19, es decir que lo presentarán en junio de este año en la WWDC 25. Seguramente, y siempre teniendo en cuenta lo que dice Mark Gurman, se hará mediante una actualización de software, lo que no especifica son los dispositivos compatibles.
Si los AirPods no te entienden puede haber un problema
Gurman asegura la implantación que este nuevo sistema en el mercado va a ser muy positivo, pero yo no estoy tan segura… si no te entiende 100% puede traducir lo que entiende y la conversación puede dejar de tener sentido o hacer enfadar a la otra persona. Hay que tener muchísimo cuidado. yo, personalmente, no vocalizo bien y a veces no se me entiende, con lo que esta función no creo que sea para mi.
Tal y como acostumbra a hacer últimamente, Apple no sería la primera empresa en incorporar esta tecnología en auriculares. Samsung ya ofrece una función similar con los Galaxy Buds3 y Buds3 Pro, que utilizan Live Translate de Galaxy AI para traducción en tiempo real.
Otros dispositivos, como los Google Pixel Buds, también han implementado capacidades de traducción en años recientes. Apple, que todavía no había incluido esta función dentro de sus auriculares, buscaría diferenciarse al integrar esta función de manera nativa en los AirPods, sin depender de aplicaciones adicionales.
Se cree que esta nueva función vendrá integrada en los próximo AirPods Pro, pero que mediante una actualización se podrá disfrutar en el resto… Veremos lo que hace Apple.