- Referencias en iOS 26 beta 6 muestran un gesto en los AirPods y su enlace con la app Traducir.
- Compatibilidad apuntada a AirPods Pro 2 y AirPods 4; el procesamiento recaería en un iPhone con Apple Intelligence.
- Activación sugerida al presionar simultáneamente ambos vástagos; no está activa aún para el público.
- Apple podría anunciarlo con iOS 26 si la latencia y el rendimiento cumplen los requisitos.

Apple ultima una traducción en tiempo real para AirPods que podría revolucionar la comunicación integrada en iOS 26, pensada para mantener conversaciones cara a cara sin mirar la pantalla. Las últimas pistas encontradas en la beta del sistema apuntan a un modo específico que se activaría con un gesto y que se apoyaría en la app Traducir del iPhone.
Lo descubierto no supone un anuncio oficial, pero sí dibuja una dirección clara: los auriculares actuarían como interfaz de micrófono y salida de audio, mientras el catálogo de funciones residiría en el dispositivo vinculado. En otras palabras, no sería una función autónoma del chip de los AirPods, sino una experiencia coordinada con el iPhone (y previsiblemente con Apple Intelligence).
Qué revelan las betas de iOS 26

En la sexta beta de iOS 26 aparece una imagen del sistema en la que se ven unos AirPods junto a saludos en varios idiomas – con ejemplos como “Hola”, “Danke”, “Obrigado”, “Bonjour” o “Adiós” – además del nombre de recurso asociado a Translate. Fuentes como 9to5Mac corroboran que estos elementos están relacionados con una función de traducción en vivo.
El material gráfico sugiere un gesto específico en el vástago para poner en marcha la experiencia. Aunque no hay un interruptor visible en Ajustes, los recursos internos del sistema dejan entrever que Apple está preparando el terreno para activar la función cuando esté lista.
La ausencia de anuncio en la WWDC no invalida estos indicios. Desde hace meses, distintos reportes apuntan a que Apple ha trabajado en un modo de conversación presencial como siguiente paso a Traducción en Vivo en Teléfono, Mensajes y FaceTime dentro de iOS 26.
Activación y funcionamiento previsto

Las pistas apuntan a que la traducción se activaría al presionar simultáneamente los dos vástagos de los auriculares, lanzando la app Traducir en el iPhone. Desde ahí, el dispositivo captaría la voz, procesaría el contenido y devolvería al instante la interpretación. Para más detalles sobre cómo funcionaría esta función, puedes consultar la explicación completa en nuestro artículo.
Este enfoque sería discreto y natural, útil en reuniones, viajes o cualquier situación cara a cara en la que sacar el móvil ralentiza la conversación. El objetivo es claro: romper la barrera del idioma con la menor fricción posible.
Como ya sucede con otras funciones de iOS 26, el rol de Apple Intelligence parece clave. Para una traducción fluida y con baja latencia, es razonable pensar en un procesamiento local y/o híbrido, priorizando la privacidad y la respuesta casi inmediata.
Modelos compatibles y requisitos de hardware

Los recursos hallados vinculan la novedad a AirPods Pro (2.ª generación) y a los AirPods (4.ª generación). La activación, en su caso, llegaría mediante actualización de firmware coordinada con iOS 26, algo habitual cuando Apple añade gestos o funciones de audio avanzadas a sus auriculares. Para una lista completa de los cambios en los AirPods Pro 3, visita nuestro artículo.
En cuanto al iPhone, no hay lista oficial de compatibilidad. Varias fuentes coinciden en que la función dependería de Apple Intelligence por necesidades de cómputo y latencia, y algunas especulaciones sitúan la posibilidad de una exclusiva en la familia iPhone 17 para garantizar el rendimiento en conversaciones reales.
Sea como sea, los AirPods serían la puerta de entrada y salida del sonido, mientras el dispositivo vinculado ejecutaría la traducción. Por ello, por ahora no se contempla un uso totalmente independiente de los auriculares.
Idiomas, privacidad y desempeño

Apple no ha confirmado el catálogo de idiomas de inicio. La imagen de iOS 26 beta 6 muestra ejemplos ilustrativos, y lo lógico sería comenzar con los idiomas ya soportados por la app Traducir. Para conocer más detalles sobre los idiomas compatibles y las consideraciones de privacidad, visita .
La latencia es el gran reto: para que dos personas se entiendan sin cortes, la respuesta debe llegar casi en tiempo real. Esa exigencia técnica explicaría la restricción a hardware reciente y la cautela de Apple antes de abrir la función al público en general.
También será relevante cómo gestione Apple la privacidad de la voz. La compañía viene impulsando procesamientos locales y enfoques híbridos; conocer el equilibrio entre lo que se hace en el dispositivo y lo que requiere la nube será clave para usuarios y empresas.
Calendario de lanzamiento y escenarios de uso
La función no está activa en la beta 6 para el público, y tampoco figura un conmutador en Ajustes. Con todo, las referencias sólidas sugieren que Apple podría anunciarla cuando lance iOS 26 o poco después, posiblemente con un despliegue gradual vía firmware.
Si se cumplen los plazos habituales, el estreno se daría en la ventana de lanzamiento del nuevo iPhone. La compañía suele escalonar funciones sensibles al rendimiento para garantizar estabilidad y calidad, antes de ampliar la compatibilidad. Además, para más detalles sobre los próximos lanzamientos, consulta nuestras predicciones relacionadas.
Un modo de traducción en el oído puede marcar la diferencia en viajes, atención al cliente, aulas o cualquier entorno multilingüe. Al reducir la necesidad de mirar la pantalla, la interacción se vuelve más natural y menos intrusiva.
Con iOS 26 extendiendo la Traducción en Vivo a Teléfono, Mensajes y FaceTime, y con referencias directas a AirPods Pro 2 y AirPods 4, todo apunta a que Apple se prepara para transformar sus auriculares en un aliado discreto y eficaz para entender y hacernos entender sin cambiar de idioma.
