- Siri se transformará en un chatbot conversacional integrado en iOS 27, iPadOS 27 y macOS 27, con nombre en clave "Campos".
- La nueva Siri usará modelos de IA basados en Google Gemini mediante un acuerdo plurianual entre Apple y Google.
- Apple desplegará la inteligencia artificial en dos fases: primero una Siri mejorada en iOS 26.4 y después el chatbot completo en iOS 27.
- El chatbot podrá buscar en la web, generar contenido, entender el contexto y trabajar con las apps y datos del usuario de forma mucho más profunda.
Apple se prepara para darle la vuelta a uno de sus productos más reconocibles: Siri dejará de ser solo un asistente de voz clásico para convertirse en un chatbot de inteligencia artificial plenamente conversacional. El cambio se materializará con iOS 27, y también afectará a iPadOS 27 y macOS 27, en una de las mayores remodelaciones de software que ha afrontado la compañía en los últimos años.
Lo que hoy conocemos como Siri pasará a ser una experiencia más cercana a herramientas como ChatGPT o Gemini, aunque estará profundamente integrada en el sistema operativo y en las aplicaciones de Apple. Esta nueva etapa llega impulsada, en buena medida, por un acuerdo de largo recorrido con Google para apoyarse en sus modelos Gemini y en su infraestructura en la nube.
Una estrategia en dos fases: de iOS 26.4 a iOS 27

La renovación de Siri no se hará de golpe, sino que Apple ha diseñado un plan escalonado en dos grandes fases que abarcan iOS 26.4 y iOS 27. Primero llegará una actualización intermedia para los iPhone actuales, orientada a introducir las funciones de Apple Intelligence prometidas y una Siri más capaz dentro del modelo de asistente clásico. Más detalles sobre iOS 26.4 han surgido durante el desarrollo.
En esa primera etapa, prevista para primavera, Siri ganará contexto, personalización y acceso más profundo al sistema, con la capacidad de cruzar datos de apps como Calendario, Mapas o Recordatorios para responder a peticiones más complejas. Será una evolución importante, pero seguirá siendo el Siri reconocible de siempre en lo visual.
El verdadero salto se reserva para otoño, cuando se despliegue iOS 27. En ese momento, Apple transformará el asistente en un chatbot completo con nombre en clave interno “Campos”, capaz de mantener conversaciones naturales, recordar el hilo de lo que se está hablando y realizar tareas más sofisticadas, tanto por voz como por texto.
Según las filtraciones, la compañía ha llegado a probar esta nueva Siri como aplicación independiente durante el desarrollo, pero la versión que llegará al público estará integrada directamente en el sistema y no aparecerá como una app separada en la pantalla de inicio.
Así funcionará la nueva Siri como chatbot

Pese al cambio de concepto, la forma de invocar al asistente será familiar. Los usuarios podrán seguir usando el comando de voz “Siri” o manteniendo pulsado el botón lateral del iPhone (o el botón equivalente en iPad y Mac). A partir de ahí, la interacción ya no se limitará a preguntas sueltas, sino que se abrirá una experiencia de conversación continua.
La gran novedad es que será posible hablar o escribir directamente a Siri como si se tratara de un chat. El usuario podrá encadenar preguntas, pedir matices, solicitar que reformule un texto o que amplíe una respuesta previa, sin tener que repetir todo cada vez como ocurre con el asistente actual.
Esta nueva Siri estará pensada para entender mejor el contexto de cada conversación y recordar temporalmente lo que se ha dicho antes, lo que debería traducirse en respuestas más coherentes y útiles. Apple, eso sí, planea limitar la memoria a un cierto umbral para mantener su enfoque habitual en privacidad, evitando historiales ilimitados como los de algunos competidores.
Otra diferencia relevante es que el chatbot tendrá la capacidad de “mirar” lo que hay en pantalla. Es decir, podrá analizar el contenido de la app que el usuario esté usando, interpretar un documento, un correo o una foto abiertos en primer plano, y actuar sobre ellos sin que el usuario tenga que copiar y pegar información manualmente.
En la práctica, esto debería permitir situaciones como pedirle a Siri que resuma un documento que el usuario está leyendo, que prepare una respuesta a un correo abierto en Mail o que ajuste un parámetro del sistema mientras se está dentro de otra aplicación, todo desde la misma conversación.
Funciones previstas: de buscar en Internet a generar imágenes y código
La lista de capacidades que se atribuye a la nueva Siri es amplia. Según la información disponible, el chatbot podrá buscar información en la web, generar contenido y actuar como asistente de productividad y programación, siempre integrado en el ecosistema de Apple.
Entre las funciones que se barajan destacan varias categorías. Por un lado, consultas en Internet con respuestas más ricas y estructuradas, alejadas del estilo de los resultados de voz actuales, y más cercanas a un informe o explicación completa. Por otro, tareas de generación de texto, como redactar correos, resumir artículos largos, preparar presentaciones o proponer ideas.
A nivel creativo, se espera que Siri sea capaz de generar y transformar imágenes siguiendo indicaciones en lenguaje natural, en la línea de lo que ya ofrecen otros servicios de IA generativa. También se contemplan herramientas para desarrollar y analizar código, lo que encaja con su integración prevista en Xcode y otras utilidades para desarrolladores en Mac.
En el plano más práctico, el chatbot podrá trabajar con datos personales y de las apps del sistema: buscar y editar fotos mediante comandos de voz, organizar eventos en Calendario, crear recordatorios contextuales, gestionar listas en Notas o realizar ajustes en el dispositivo sin que el usuario tenga que navegar por la configuración.
Además, existe la posibilidad de que Apple abra una API para que desarrolladores de terceros conecten sus apps con el nuevo Siri, de modo que el chatbot también pueda lanzar acciones y recuperar información de aplicaciones externas. Aunque esta integración aún no está confirmada en detalle, encajaría con la estrategia de Apple de convertir la IA en una capa transversal del sistema operativo.
Integración profunda en iOS, iPadOS y macOS
Uno de los puntos clave de esta transformación es que Siri no se quedará limitada al iPhone. El plan de Apple pasa por llevar el chatbot a iPadOS 27 y macOS 27, con una experiencia similar en todos los dispositivos, adaptada al teclado, ratón o pantalla táctil según corresponda.
En ordenadores Mac, la nueva Siri podría convertirse en una especie de capa de asistencia universal, presente tanto en el escritorio como en apps como Mail, Mensajes, Fotos, Música o la propia suite ofimática, ayudando a automatizar tareas repetitivas o a localizar información dispersa entre archivos y correos.
En iPad, el chatbot encaja especialmente con los usos creativos y profesionales: desde ayudar a maquetar documentos y presentaciones hasta colaborar en la edición de fotos y vídeos. Apple ya ha empezado a marcar el terreno con Apple Creative Studio, un paquete de apps profesionales con funciones avanzadas de IA reservado a suscriptores, que apunta a un modelo de IA ligada a servicios de pago.
La compañía también baraja llevar la nueva Siri a otros dispositivos del hogar, como un posible altavoz con pantalla que ha aparecido en filtraciones bajo el nombre informal de “HomePad”. En ese contexto, el chatbot podría servir como centro de control doméstico, asistente de contenidos y punto de acceso a la información para toda la familia.
En todos los casos, la idea es que el usuario sienta que habla con el mismo asistente, con la misma personalidad y capacidades, independientemente del dispositivo desde el que inicie la conversación, algo que hasta ahora no ocurría de manera tan uniforme entre iOS, iPadOS y macOS.
El papel de Google Gemini y el coste para Apple
Para dar este salto, Apple ha optado por apoyarse en la tecnología de un rival directo en otros ámbitos. Diversas fuentes coinciden en que la compañía ha firmado un acuerdo plurianual con Google para utilizar modelos de Gemini y su infraestructura en la nube como base de funcionamiento del nuevo Siri. Algunas informaciones apuntan a que Apple llegó a negociar la integración de Gemini en fases tempranas del proyecto.
La cifra que se maneja en los pasillos del sector rondaría los mil millones de dólares anuales que Apple pagaría a Google por el uso de sus modelos más avanzados. Aunque supone una inversión relevante, queda por debajo de los ingresos que la propia Google transfiere cada año a Apple para seguir siendo el buscador por defecto en Safari, lo que deja cierto margen para que la operación sea asumible.
Este acuerdo permitiría a Apple acelerar la llegada de capacidades de IA generativa sin tener que esperar a que sus propios modelos alcancen el nivel de madurez de Gemini. La empresa de Cupertino seguiría controlando el diseño de la interfaz, la integración con sus dispositivos y la gestión de datos, mientras que el cálculo pesado se realizaría en la nube de Google.
A nivel técnico, se diferenciarán al menos dos escalones: un modelo más ligero para la Siri mejorada de iOS 26.4, con tareas menos exigentes, y otro más potente para el chatbot de iOS 27 y sistemas de escritorio, capaz de manejar conversaciones complejas, código y documentos largos.
Esta dependencia externa abre, no obstante, interrogantes sobre cómo se gestionará la privacidad y el alojamiento de datos de usuarios europeos, acostumbrados a una protección especialmente estricta por el marco regulatorio de la UE. Apple tendrá que explicar con detalle qué información sale del dispositivo, cómo se anonimiza y durante cuánto tiempo se conserva en los servidores asociados a Gemini.
Privacidad, memoria y posibles modelos de pago
La llegada de un chatbot tan potente choca con la imagen tradicional de Apple como empresa muy celosa de los datos de sus clientes. Por eso, una parte del diseño de la nueva Siri girará en torno a poner límites a la memoria y al uso de la información personal, incluso a costa de perder algo de comodidad frente a otros servicios.
A diferencia de algunos competidores que guardan largos historiales de conversación para afinar la personalización, la idea de Apple pasa por restringir el tiempo y la cantidad de contexto que el asistente puede recordar. La compañía quiere evitar que el chatbot se convierta en un repositorio indefinido de datos sensibles, aunque todavía no se conoce con precisión cuál será ese umbral.
En paralelo, la infraestructura necesaria y el coste de los modelos de IA plantean la duda de si toda la experiencia será gratuita o se optará por un modelo mixto. El mercado se ha acostumbrado a versiones básicas sin coste y planes de pago con capacidades ampliadas, como ocurre con ChatGPT Plus o Gemini Advanced.
Las filtraciones apuntan a que Apple podría seguir un camino parecido: una Siri renovada incluida de serie en iOS 26.4 y iOS 27, accesible para todos los usuarios con dispositivos compatibles, y funciones adicionales reservadas a quienes contraten una suscripción, posiblemente integrada en alguno de sus servicios existentes o en un nuevo paquete específico de IA.
El precedente más claro es Apple Creative Studio, el bundle de aplicaciones profesionales con funciones extra de IA para iPad y Mac que solo estará disponible para quienes paguen una cuota. Ese movimiento se interpreta como un ensayo general de cómo pueden empaquetarse las capacidades avanzadas de inteligencia artificial dentro de la oferta de servicios de la compañía.
Calendario previsto: de la WWDC al lanzamiento de iOS 27
En cuanto a fechas, todo indica que la hoja de ruta de Apple seguirá el guion habitual. La parte más vistosa de la nueva Siri se presentará durante la Conferencia Mundial de Desarrolladores (WWDC), que suele celebrarse a comienzos de junio y se ha convertido en el escenario preferido de la compañía para enseñar sus avances en software.
En esa keynote inicial se espera que Apple detalle cómo funcionará el chatbot, qué dispositivos serán compatibles y qué papel jugará en iOS 27, iPadOS 27 y macOS 27. A partir de ahí, llegarán las primeras betas para desarrolladores y, algo más tarde, las betas públicas para quienes quieran probar las novedades antes del lanzamiento definitivo.
La versión final de iOS 27 se desplegaría, salvo sorpresa, en septiembre, coincidiendo con la nueva generación de iPhone, siguiendo el patrón de los últimos años. La compañía confía en que la nueva Siri se convierta en el principal reclamo de la actualización, mientras que el resto de cambios del sistema se centrarán más en mejoras de estabilidad y rendimiento.
En Europa y España, el impacto real dependerá también de la adaptación de todas estas funciones a los distintos idiomas y normas regulatorias. Apple suele priorizar el inglés en las primeras fases, pero la popularidad del ecosistema en el mercado europeo hace previsible que el despliegue de idiomas adicionales, incluido el español, llegue en un plazo relativamente corto.
Si se cumplen los plazos que manejan los analistas y las fuentes cercanas a la compañía, los usuarios europeos podrán empezar a hacerse una idea bastante precisa de cómo será convivir con el nuevo Siri chatbot durante el periodo de betas, antes del despliegue masivo en otoño.
Con todo este movimiento, Apple busca dejar atrás la imagen de un asistente que se había quedado anclado en funciones básicas y poco flexibles. La combinación de una Siri más personal en iOS 26.4 y su transformación en chatbot conversacional en iOS 27, apoyada en los modelos de Gemini pero envuelta en la habitual capa de diseño y control de Apple, marcará buena parte del rumbo de la compañía en inteligencia artificial durante los próximos años.

