- Apple investiga el uso de AirPods con sensores en el oído para registrar señales cerebrales mediante ear‑EEG.
- Un modelo de IA llamado PARS aprende patrones de actividad eléctrica sin necesidad de datos anotados por neurólogos.
- Patentes de 2023 describen auriculares con múltiples electrodos y selección inteligente de la mejor señal.
- Su llegada al mercado europeo dependerá de validación clínica, regulación y privacidad de datos cerebrales.
La posibilidad de que unos AirPods sean capaces de registrar ciertas señales del cerebro deja de sonar a ciencia ficción lejana y empieza a tomar forma en estudios, patentes y prototipos. Apple está explorando cómo convertir sus auriculares inalámbricos en algo más que un accesorio de audio, usando el propio oído como ventana a la actividad eléctrica cerebral.
Por ahora no hay ningún producto anunciado ni fechas oficiales, todo se mueve en el terreno de la investigación en inteligencia artificial, el análisis de EEG y el diseño de sensores. Aun así, los documentos publicados permiten dibujar un escenario bastante concreto: futuros AirPods podrían incorporar electrodos diminutos capaces de medir señales cerebrales desde el canal auditivo, con posibles aplicaciones en salud, sueño y bienestar, también para usuarios en España y el resto de Europa.
La nueva idea de Apple: IA para entender el EEG sin neurólogos etiquetando
El corazón de este enfoque está en un método desarrollado por investigadores de Apple para que un modelo de inteligencia artificial aprenda patrones de actividad eléctrica cerebral sin depender de neurólogos que anoten a mano los registros. En vez de trabajar con bases de datos meticulosamente etiquetadas, el sistema se alimenta de grandes volúmenes de señales de EEG en bruto.
Esta técnica se conoce como PARS (PAirwise Relative Shift) y se enmarca dentro del llamado aprendizaje autosupervisado. En lugar de decirle a la IA qué fragmento de señal corresponde a cada fase del sueño o a un episodio epiléptico, el algoritmo recibe dos trozos de EEG elegidos al azar y tiene que adivinar cuál es el desplazamiento temporal entre ellos.
Al obligar al modelo a resolver ese rompecabezas de posiciones relativas, PARS consigue que la red vaya captando la estructura global de las ondas cerebrales a lo largo del tiempo, más allá de patrones muy locales. De ahí salen representaciones internas que luego se pueden reutilizar para tareas como clasificar las fases del sueño o detectar anomalías neurológicas.
En las pruebas publicadas, los modelos preentrenados con PARS igualaron o superaron el rendimiento de otros métodos de aprendizaje autosupervisado en varios conjuntos de datos de EEG. El punto clave es que la IA no solo rellena huecos en la señal, sino que aprende relaciones de largo alcance entre diferentes momentos de la actividad cerebral.
Un detalle llamativo del estudio es la inclusión de registros de EEG auricular (ear‑EEG), es decir, mediciones realizadas desde el oído y no desde el cuero cabelludo. Este tipo de señal es algo más débil y ruidosa, pero resulta mucho más discreta y cómoda, y encaja a la perfección con la idea de integrarla en unos AirPods.

Del laboratorio al oído: por qué el ear‑EEG encaja con los AirPods
Entre los conjuntos de datos usados para poner a prueba PARS destaca EESM17, centrado en la monitorización del sueño con un sistema portátil de EEG de oído con varios canales, combinado con las mediciones clásicas en el cuero cabelludo. Los resultados muestran que, incluso desde la oreja, se puede capturar información cerebral relevante.
El ear‑EEG utiliza electrodos situados dentro o alrededor del pabellón auditivo. Aunque las señales son señales auriculares de menor amplitud, siguen reflejando patrones clínicamente útiles, como las diferentes etapas de sueño o algunas señales vinculadas a crisis epilépticas. A cambio, se gana discreción y comodidad, algo clave si se pretende usar la tecnología en la vida diaria.
Apple lleva tiempo ampliando las funciones de salud de su ecosistema, con el ECG del Apple Watch, la medición de oxígeno en sangre o los sensores de frecuencia cardiaca avanzados. La idea de extender esa estrategia al ámbito de la actividad cerebral desde el oído encaja con una visión más amplia de salud digital y seguimiento del bienestar.
Plantear que una futura generación de AirPods integre sensores de EEG no parece tan descabellado si se tiene en cuenta el uso cotidiano masivo de los auriculares inalámbricos. Millones de personas en España y el resto de Europa los llevan puestos buena parte del día, lo que convierte al oído en un punto privilegiado para registrar datos fisiológicos sin cambiar apenas de hábitos.
Además de las publicaciones científicas, se han identificado documentos de propiedad intelectual y patentes que dan pistas concretas sobre cómo podrían integrarse estos sensores en un dispositivo de consumo como los AirPods, combinando hardware específico y algoritmos de IA.
La patente que abre la puerta a AirPods que miden bioseñales
En 2023, Apple registró una solicitud de patente para un dispositivo electrónico portátil capaz de medir bioseñales desde el oído del usuario. El texto no menciona expresamente a los AirPods, pero los dibujos y descripciones recuerdan mucho a unos auriculares intraaurales.
El documento explica que la actividad cerebral puede medirse no solo con electrodos sobre el cuero cabelludo, sino también con electrodos colocados dentro o alrededor de la oreja externa. Esta alternativa ofrece ventajas evidentes: menor visibilidad de los sensores, más comodidad y la posibilidad de usar el sistema mientras se camina, se trabaja o se descansa en casa.
La propia patente reconoce, sin embargo, que cada persona tiene un oído con forma distinta. Regiones como la concha, el canal auditivo o el trago varían bastante entre usuarios, lo que complica que un único diseño garantice siempre la colocación ideal de los electrodos para obtener buenas señales.
Para sortear este obstáculo, Apple propone un diseño en el que los auriculares integran más electrodos de los estrictamente necesarios, distribuidos en varios puntos de la carcasa interna. A partir de esas múltiples mediciones, un modelo de IA analiza qué electrodos ofrecen mejor calidad de señal, valorando parámetros como la impedancia o el nivel de ruido.
Con esa información, el dispositivo combinaría las lecturas de los diferentes sensores para generar una señal cerebral «fusionada» optimizada, asignando un peso mayor a los canales más fiables. La patente también contempla gestos táctiles, como tocar o presionar el auricular, para iniciar o detener la captura de bioseñales, así como variantes de diseño pensadas para adaptarse a oídos con geometrías diversas.
Cómo funcionarían unos futuros AirPods que leen señales cerebrales
Si juntamos las piezas —la técnica PARS, el ear‑EEG y la patente de 2023— se dibuja un escenario bastante claro sobre cómo podrían operar unos AirPods capaces de registrar e interpretar señales cerebrales desde el oído. La idea pasaría por integrar electrodos y sensores bioeléctricos en las zonas del auricular que hacen contacto con la piel.
Estos sensores recogerían pequeñas variaciones de potencial eléctrico asociadas a la actividad neuronal y a otras bioseñales cercanas, como contracciones musculares, movimientos oculares o cambios en el pulso de volumen sanguíneo. Un chip integrado en cada AirPod se ocuparía de una primera fase de trabajo: segmentar la señal por zonas, filtrar parte del ruido y normalizar los datos.
Una vez preprocesada, la información se enviaría de forma inalámbrica a un iPhone, iPad o Apple Watch, donde un modelo de IA más potente —basado en enfoques similares a PARS— se encargaría de interpretar los patrones presentes en las señales. Gracias al preentrenamiento autosupervisado, el sistema podría reconocer etapas del sueño, variaciones en la actividad cerebral o indicios de anomalías sin que un especialista deba etiquetar manualmente cada registro.
Entre los usos potenciales que se desprenden de la investigación se encuentran la monitorización detallada de las fases del sueño, la detección de convulsiones o irregularidades neurológicas y el seguimiento de indicadores relacionados con el sistema nervioso o la circulación. También se abre la puerta a aplicaciones centradas en la concentración, la fatiga o el nivel de alerta.
En el día a día, el objetivo sería que el usuario apenas tuviera que cambiar su rutina: bastaría con ponerse los AirPods como siempre. El sistema podría activarse manualmente mediante un gesto concreto o funcionar de forma programada en determinadas franjas, por ejemplo por la noche, para registrar la actividad y generar después informes sobre la calidad del descanso u otros aspectos de bienestar.
Ventajas y límites de leer el cerebro desde el oído
Elegir el oído como punto de medida tiene bastante sentido práctico. Un sistema de ear‑EEG ofrece una visibilidad muy reducida frente a los cascos clínicos llenos de cables, algo que en Europa puede facilitar su adopción en entornos cotidianos como el transporte público, la oficina o la universidad, sin llamar apenas la atención.
Además, los auriculares se han convertido en un accesorio que mucha gente ya usa a diario durante horas, lo que facilita registros frecuentes y de largo plazo sin necesidad de acudir a una consulta para cada medición. Para personas con problemas de sueño o que siguen tratamientos neurológicos, disponer de este tipo de datos en casa podría ser un complemento interesante al seguimiento médico tradicional.
La parte menos amable es que las señales obtenidas desde el oído suelen ser más débiles y ruidosas que las del cuero cabelludo. Actividades tan corrientes como hablar, masticar o hacer ejercicio introducen artefactos que distorsionan la lectura, de modo que el sistema debe aplicar técnicas de filtrado y compensación bastante avanzadas.
También influye mucho el encaje físico del auricular: un ligero cambio de posición puede alterar el contacto del electrodo con la piel y empeorar la calidad de la señal. Resolver estos problemas exige combinar un diseño ergonómico muy cuidado con algoritmos de calibración continua capaces de adaptarse a pequeños movimientos y a la diversidad de anatomías.
Desde el punto de vista clínico, todo apunta a que, al menos en una primera etapa, este tipo de AirPods se situaría más cerca de una herramienta de seguimiento general y bienestar que de un dispositivo médico pensado para diagnóstico. Para dar el salto a usos sanitarios regulados serían necesarios estudios clínicos robustos y la aprobación de las autoridades competentes.
Privacidad y regulación en España y la Unión Europea
Más allá de la ingeniería, la idea de que unos auriculares puedan leer señales cerebrales plantea un debate relevante sobre privacidad, seguridad de los datos —como la seguridad de Face ID— y regulación, especialmente en la Unión Europea, donde el Reglamento General de Protección de Datos (RGPD) es especialmente estricto con la información sanitaria.
Los registros de EEG pueden desvelar datos muy sensibles: patrones de sueño, posibles trastornos neurológicos o incluso indicadores indirectos del nivel de atención y fatiga. Este tipo de información encaja de lleno en la categoría de datos de salud, que el RGPD protege de forma reforzada y que requieren bases legales claras, consentimiento explícito e información transparente al usuario.
Si Apple decide comercializar en España y en otros países europeos unos AirPods con estas capacidades, tendrá que garantizar un cifrado robusto de las bioseñales durante la transmisión y el almacenamiento, políticas de retención de datos bien definidas y mecanismos sencillos para que las personas puedan borrar su historial o exportarlo a otros servicios, ejerciendo derechos como acceso, rectificación y portabilidad.
Otro asunto clave será trazar la frontera entre un accesorio de consumo orientado al bienestar y un dispositivo médico sometido a regulación específica. Si la función se centra en mejorar el descanso o ofrecer indicadores generales, el marco normativo será más flexible; si se posiciona como herramienta de diagnóstico o tratamiento, entrarían en juego normas más estrictas y la supervisión de organismos como la Agencia Española de Medicamentos y Productos Sanitarios o la EMA.
Los reguladores europeos ya están atentos al auge de la salud digital y de los wearables avanzados. Una tecnología capaz de leer señales cerebrales desde el oído probablemente acelerará la actualización de los marcos normativos, buscando un equilibrio entre permitir la innovación y proteger los derechos de los ciudadanos en países como España, Francia o Alemania.
Estado actual del desarrollo y horizonte temporal de los «AirPods cerebrales»
Con lo que se sabe hasta ahora, el panorama se sostiene en tres pilares: investigación en IA aplicada al EEG, patentes que describen hardware para medir bioseñales desde el oído y ejemplos de otras empresas que ya trabajan en auriculares biométricos. Ninguno de estos elementos implica, por sí solo, que el lanzamiento de unos AirPods capaces de leer el cerebro sea inminente.
El propio estudio de Apple sobre el método PARS deja claro que hablamos de experimentación en laboratorio, destinada a comprobar si el modelo puede aprender por sí mismo la estructura temporal de las ondas cerebrales y mejorar la precisión en distintas tareas de decodificación. No se hace referencia a un producto concreto listo para entrar en producción.
En paralelo, las patentes suelen describir posibles líneas de desarrollo, pero no garantizan que acaben convirtiéndose en productos reales. Muchas solicitudes sirven para reservarse ideas, proteger diseños o cubrir tecnologías que quizá se retomen años más tarde, si las condiciones técnicas y comerciales acompañan.
Al mismo tiempo, ya existen compañías como Aware Custom Biometric Wearables que han presentado auriculares diseñados específicamente para medir la actividad cerebral y señales vinculadas al nervio vago o a vasos sanguíneos del canal auditivo. Estos proyectos demuestran que el sector de los wearables centrados en bioseñales está en plena efervescencia y que no es una apuesta aislada.
Teniendo en cuenta los plazos habituales de desarrollo tecnológico, las validaciones necesarias y los requisitos regulatorios, parece razonable pensar que, si esta línea de investigación sigue adelante, veremos avances progresivos durante los próximos años más que un lanzamiento repentino. Algunas estimaciones sitúan la llegada de soluciones maduras y bien integradas más bien en la próxima década que en el corto plazo.
Con todo lo anterior sobre la mesa, la sensación es que Apple está construyendo pieza a pieza la base necesaria para que unos futuros AirPods se conviertan en una ventana discreta a la actividad cerebral del usuario: sensores en el oído, modelos de IA capaces de aprender sin anotaciones humanas y una capa de software orientada al bienestar. Que esa visión termine materializándose en el día a día de quienes usan auriculares en España y el resto de Europa dependerá tanto de cómo evolucione la tecnología como de las normas que la rodeen y, sobre todo, de hasta qué punto los usuarios estén dispuestos a confiar datos tan sensibles como las señales de su propio cerebro a un dispositivo que, hoy por hoy, utilizan sobre todo para escuchar música y atender llamadas.