- Apple estudia potenciar Siri integrando IA de OpenAI o Anthropic, relegando su tecnología propia.
- La elección responde al retraso de Apple frente a competidores como Google o Amazon en asistentes inteligentes.
- Las negociaciones con Anthropic y OpenAI contemplan ejecutar modelos personalizados en la nube privada de Apple para preservar la privacidad.
- El posible acuerdo ha agitado internamente a Apple y podría suponer una Siri completamente renovada en 2026.

Apple estudia un cambio sin precedentes en su estrategia de asistentes virtuales. Tras años confiando en el desarrollo interno de modelos de inteligencia artificial —los llamados Apple Foundation Models—, la compañía está valorando seriamente integrar tecnologías desarrolladas por terceros como Anthropic (responsable de Claude) u OpenAI (creador de ChatGPT) para dotar a Siri de una IA más avanzada. Esta decisión responde tanto a los retrasos acumulados en el avance de Siri como a la presión de rivales que ya usan IA generativa sofisticada en productos como Google Assistant o Alexa+.
La posibilidad de que Siri pase a depender de modelos externos supone una ruptura importante con la filosofía tradicional de Apple, que siempre ha apostado por mantener el control absoluto sobre software y hardware. Sin embargo, el débil desempeño reciente del asistente de voz frente a alternativas de la competencia habría forzado a la empresa a reconsiderar su estrategia y buscar fórmulas mixtas, al menos de manera temporal.
Negociaciones y pruebas con los grandes de la IA
Apple ha mantenido conversaciones con Anthropic y OpenAI para evaluar la integración de sus modelos de lenguaje en Siri. El planteamiento es que estas IA avanzadas, como Claude y ChatGPT, puedan ejecutarse en la infraestructura de nube privada de Apple, basada en sus propios chips, de modo que la privacidad del usuario se mantenga bajo los estándares habituales de la marca. Durante la fase de pruebas internas, el equipo de Apple ha encontrado especialmente prometedora la tecnología de Anthropic, aunque las negociaciones económicas con esta empresa todavía no están cerradas, y OpenAI sigue sobre la mesa como alternativa real.
El equipo técnico liderado por Mike Rockwell y Craig Federighi ha trabajado en paralelo tanto en la evolución de la tecnología propia como en la validación de soluciones externas. Las demandas financieras de Anthropic, que busca un contrato multianual de miles de millones de dólares, han complicado el cierre del acuerdo. Si el entendimiento no se produce, Apple podría reforzar su colaboración con OpenAI, que ya gestiona algunas respuestas generales de Siri y está integrada en varias funciones de Apple Intelligence desde finales de 2024.
Un contexto de incertidumbre y reorganización en Apple

Estos movimientos están teniendo un profundo impacto en la estructura interna de Apple. Los retrasos continuos han generado malestar entre los ingenieros involucrados en los modelos propios, llegando incluso a producir salidas de figuras clave y amenazas de fuga de talento hacia grandes tecnológicas como Meta, dispuestas a ofrecer paquetes salariales millonarios. La reorganización también ha llevado a una pérdida de peso del anterior responsable de IA, John Giannandrea, y a la cancelación o reformulación de proyectos como Swift Assist, que ahora se apoya en modelos externos como Claude o ChatGPT para desarrolladores.
La presión por recuperar terreno frente a los asistentes de Android o Alexa+ es evidente. Apple reconoce que, a pesar de sus avances en privacidad y optimización para su propio ecosistema, no ha logrado igualar la flexibilidad y potencia de los modelos generativos más grandes.
Privacidad y despliegue: el plan de Apple

Uno de los objetivos clave es garantizar que cualquier integración de inteligencia artificial de terceros respete los altos estándares de privacidad que caracteriza a Apple. Por ello, la compañía planea que los modelos de ChatGPT o Claude se ejecuten exclusivamente en servidores propios bajo el sistema Private Cloud Compute, sin recurrir a infraestructuras ajenas. Mientras tanto, algunas funciones de Apple Intelligence seguirán operando directamente en los dispositivos —por ejemplo, para resúmenes de correos electrónicos— usando modelos menos potentes pero más seguros en cuanto a protección de datos personales.
Apple también tiene previsto permitir a los desarrolladores de apps aprovechar modelos de IA en el propio dispositivo a finales de este año, aunque por ahora no dará acceso a los modelos más potentes basados en la nube a terceros, debido a limitaciones de capacidad y escalabilidad.
Qué esperar de la nueva Siri y próximos pasos

Todavía no existe una decisión definitiva sobre qué modelo se integrará como motor principal de Siri. Lo que sí parece claro es la hoja de ruta: las mejoras más profundas se esperan con iOS 27 en 2026, aunque iOS 26 traerá novedades puntuales durante este año. El objetivo es ofrecer, a corto plazo, una Siri que iguale en capacidades a los asistentes más avanzados del mercado, sin perder la autonomía a largo plazo que Apple busca con el desarrollo de modelos propios.
La decisión final puede redefinir la competitividad de Apple en asistentes inteligentes. El mercado espera ver si la compañía logra combinar la robustez y flexibilidad de la IA generativa de terceros con las señas de identidad que la han diferenciado: control sobre la experiencia de usuario y protección estricta de la privacidad. En un contexto de cambios acelerados y competencia feroz, Apple apuesta por una solución pragmática para no quedarse atrás en el futuro de la inteligencia artificial aplicada a dispositivos personales.

