- Apple Intelligence integra modelos de IA en dispositivo y en la nube, priorizando la privacidad mediante Private Cloud Compute.
- Ofrece funciones avanzadas como herramientas de escritura, traducción en tiempo real, Genmoji, Image Playground y Visual Intelligence.
- Requiere hardware reciente (A17 Pro o Apple Silicon M1 en adelante) y versiones actualizadas de iOS, iPadOS, macOS, visionOS y watchOS.
- La plataforma se apoya en acuerdos con OpenAI y Google para potenciar Siri y futuras experiencias en nuevos dispositivos centrados en IA.
La apuesta de Apple por la inteligencia artificial ha tardado en llegar respecto a otros gigantes como Google o Samsung, pero lo está haciendo con una idea muy clara: que la IA esté profundamente integrada en el iPhone, iPad, Mac, Apple Watch y Apple Vision Pro, y que lo haga sin renunciar a la privacidad. Bajo el paraguas de Apple Intelligence, la compañía está desplegando un conjunto de funciones que afectan a casi todo lo que hacemos con sus dispositivos: escribir, comunicar, traducir, organizar nuestra vida digital o incluso entender mejor lo que nos rodea con la cámara.
Más allá del ruido mediático, lo interesante es que Apple Intelligence no es solo “más IA”, sino una arquitectura completa de modelos en el dispositivo y en la nube, nuevas capacidades para Siri, herramientas de escritura avanzadas, generación de imágenes, traducción en tiempo real y una función clave que apunta al futuro del hardware de la marca: Visual Intelligence. Vamos a ver en detalle qué es exactamente Apple Intelligence, cómo funciona, qué dispositivos son compatibles, qué puede hacer hoy por ti y hacia dónde apunta todo esto en los próximos años.
Qué es Apple Intelligence y por qué es tan importante para Apple
Apple Intelligence es el nombre con el que Apple agrupa todas sus funciones de inteligencia artificial generativa integradas en iOS, iPadOS, macOS, visionOS y watchOS. Se anunció oficialmente en la WWDC 2024 como una de las grandes novedades de iOS 18, iPadOS 18 y macOS Sequoia, y desde entonces no ha parado de crecer en prestaciones y en sistemas compatibles.
La plataforma se apoya en dos grandes tipos de modelos: unos que se ejecutan directamente en el dispositivo (on-device) y otros que funcionan en servidores de Apple con chips Apple Silicon, a través de lo que la compañía llama Private Cloud Compute. Ambos se combinan para permitir desde tareas rápidas y locales, como resúmenes de texto sencillos, hasta operaciones más complejas que necesitan más potencia de cálculo.
Apple ha diseñado estos modelos como una familia de modelos base y adaptadores especializados. El modelo base genérico se encarga de entender lenguaje, imágenes y contexto, y sobre él se cargan pequeños modelos orientados a tareas concretas: resumir emails, cambiar el tono de un texto, generar imágenes tipo boceto, sugerir respuestas, ayudar a programar en Xcode, etc. Esto hace que el sistema sea más flexible y eficiente a la hora de incorporar nuevas funciones.
En pruebas internas con evaluación humana, Apple afirma que sus modelos en el dispositivo están a la altura o por encima de otros modelos pequeños de Mistral, Microsoft o Google, mientras que los modelos de servidor superan el rendimiento de GPT‑3 y se acercan bastante a GPT‑4. Además, la compañía no quiere depender solo de sus propios modelos: ha cerrado acuerdos con OpenAI para integrar ChatGPT (basado en GPT‑4o) y planea añadir en el futuro otros modelos como Google Gemini.
Privacidad por diseño: cómo funciona Apple Intelligence por dentro
Uno de los pilares de Apple Intelligence es que toda la arquitectura está pensada para proteger al máximo la privacidad. Apple insiste en que la IA debe conocer tu contexto personal para ser útil, pero sin convertirlo en un festín de datos para la nube. Por eso, todo lo que puede ejecutarse en el dispositivo se hace ahí, sin salir del iPhone, iPad o Mac.
Cuando una tarea es demasiado compleja para el modelo local, entra en juego la Computación Privada en la Nube (Private Cloud Compute). En lugar de enviar tu información a servidores genéricos, Apple utiliza infraestructuras propias con Apple Silicon, donde los modelos se ejecutan en entornos auditables, cifrados de extremo a extremo y con un control estricto de qué datos se procesan y cómo. La idea es que, incluso cuando la IA se va a la nube, lo haga con el mismo nivel de privacidad que si estuviera en el dispositivo.
Este enfoque se nota especialmente en la integración con ChatGPT: el sistema siempre te pide permiso explícito antes de mandar contenido a los servidores de OpenAI, oculta tu dirección IP y deja claro cuándo una respuesta viene de ChatGPT. Además, puedes usar ChatGPT dentro de Apple Intelligence sin iniciar sesión, aunque los suscriptores de pago pueden conectarse para aprovechar sus funciones avanzadas.
La combinación de modelo en el dispositivo, modelo en la nube privada y modelos externos como ChatGPT o Gemini crea un sistema híbrido donde Apple decide en cada momento cuál es la mejor ruta para responder a tu petición, equilibrando utilidad, rapidez y privacidad.
Dispositivos y requisitos para usar Apple Intelligence
Apple Intelligence no llega a todos los dispositivos, y esto tiene que ver con las exigencias de cálculo y memoria RAM de los modelos. En la práctica, solo los dispositivos con chips recientes de la serie M o A17 Pro (o superiores) se benefician de todas las prestaciones.
En el caso del iPhone, Apple Intelligence está disponible en iPhone 15 Pro, iPhone 15 Pro Max y toda la familia iPhone 16 (iPhone 16, 16 Plus, 16e, 16 Pro y 16 Pro Max). Modelos anteriores quedan fuera principalmente por las limitaciones de memoria y capacidad para ejecutar los modelos on-device.
En iPad y Mac, la compatibilidad está ligada a Apple Silicon: todos los iPad con chip M1 o superior (incluyendo iPad Air de quinta generación en adelante y iPad Pro de quinta generación o posterior) y todas las Mac con procesadores M1, M2 o posteriores, como MacBook Air (M1, 2020) o más nuevos, MacBook Pro (M1, 2020) en adelante, Mac mini (M1, 2020), iMac (M1, 2021), Mac Studio (M1 Max/Ultra, 2022 o superior) y Mac Pro con M2 Ultra.
También se integra en Apple Vision Pro y ofrece funciones específicas en Apple Watch Series 6 y posteriores, Apple Watch Ultra (todas las generaciones) y Apple Watch SE 2 o posterior, siempre que estén enlazados a un iPhone compatible con Apple Intelligence y se mantengan cerca de él.
Además del hardware, hay una serie de requisitos de software y configuración muy concretos: iOS 18.1 o posterior, iPadOS 18.1 o posterior, macOS Sequoia 15.1 o posterior, visionOS 2.4 o posterior y watchOS 11 o posterior. También se recomienda disponer de al menos 7 GB de almacenamiento libre en el dispositivo (no se aplica al Apple Watch) para que el sistema pueda descargar y actualizar los modelos.
Cómo activar o desactivar Apple Intelligence en iPhone, iPad y Mac
Una vez tienes el dispositivo y el sistema operativo compatibles, el siguiente paso es activar Apple Intelligence desde Ajustes. Apple ha centralizado el control de estas funciones junto con Siri para que no tengas que ir saltando de un menú a otro.
En iOS 26 y iPadOS 26, basta con ir a la app Ajustes, entrar en el apartado “Apple Intelligence y Siri” y, desde ahí, activar el interruptor principal de Apple Intelligence o pulsar en “Activar Apple Intelligence”, según la versión de sistema y si ya lo habías configurado antes. El proceso es muy similar en macOS, dentro de las preferencias del sistema. (Consulta la nota sobre actualizaciones de iOS 26 para más detalles sobre versiones y parches recientes.)
Cuando activas Apple Intelligence por primera vez, el dispositivo comienza a descargar en segundo plano los modelos necesarios. Este proceso puede tardar un rato y es recomendable mantener el iPhone, iPad o Mac conectado a la corriente y a una red Wi‑Fi para acelerar la descarga. Hasta que esos modelos no estén listos, algunas funciones pueden aparecer pero no funcionar del todo.
Si en algún momento prefieres prescindir de estas funciones, puedes volver al mismo menú de “Apple Intelligence y Siri” y desactivar el interruptor principal. Al hacerlo, los modelos descargados en el dispositivo se eliminan, liberando espacio de almacenamiento y desactivando por completo las características de Apple Intelligence, aunque seguirás teniendo las funciones básicas del sistema y de Siri tradicional.
Idiomas y disponibilidad regional de Apple Intelligence
A nivel de idiomas, Apple Intelligence ha ido expandiéndose por fases: primero en inglés y después en otros idiomas clave. En español llegó durante la primavera de 2025, y desde entonces se ha ido equiparando cada vez más en prestaciones con el inglés.
Con versiones como iOS 26.1, iPadOS 26.1 y macOS 26.1, la mayoría de funciones de Apple Intelligence están disponibles en una amplia lista de idiomas: alemán, chino simplificado, chino tradicional, coreano, danés, español, francés, inglés, italiano, japonés, neerlandés, noruego, portugués, sueco, turco y vietnamita. En watchOS 26 y posteriores, algunas de estas prestaciones llegan también al Apple Watch cuando está enlazado con un iPhone compatible.
Para que todo funcione bien, Apple exige que el idioma del dispositivo y el de Siri coincidan. Si cambias el idioma de Siri, puede que Apple Intelligence quede momentáneamente no disponible hasta que se descargue el nuevo paquete de idioma y quede todo alineado. Es un detalle a tener en cuenta si sueles alternar entre varios idiomas.
En el caso de Apple Vision Pro con visionOS 26.1 y posteriores, muchas funciones de Apple Intelligence se ofrecen en alemán, chino simplificado, chino tradicional, coreano, español, francés, inglés, italiano y japonés. Y, algo importante: una vez se ha activado Apple Intelligence en una región compatible, puedes seguir utilizando sus funciones cuando viajas a otros países donde esté soportado, sin tener que volver a configurarlo.
La gran excepción ahora mismo es China continental: los dispositivos compatibles comprados allí no pueden usar Apple Intelligence de momento. Tampoco funcionará si estás físicamente en China continental y tu cuenta de Apple está configurada con esa región, aunque el dispositivo se haya comprado fuera. Apple ha dejado claro que, cuando Apple Intelligence llegue oficialmente a China, los dispositivos compatibles vendidos con anterioridad podrán activarlo y utilizarlo sin problemas.
Funciones principales de Apple Intelligence en iOS, iPadOS y macOS
Con iOS 26, iPadOS 26 y macOS Tahoe 26 (y versiones posteriores), Apple Intelligence introduce un buen puñado de funciones que tocan casi todas las apps importantes del sistema. Muchas de ellas están disponibles en varias plataformas, aunque algunas son exclusivas de iPhone o iPad.
Uno de los pilares son las Herramientas de Escritura: un conjunto de opciones integradas en campos de texto del sistema que permiten resumir textos largos, revisar tu redacción, ajustar el tono (más formal, más cercano, más conciso, etc.) o incluso reescribir completamente un mensaje para mejorar su claridad. Estas funciones recuerdan mucho a lo que hace Grammarly, pero integradas en todo el sistema operativo y con soporte para múltiples idiomas.
Apple Intelligence también refuerza la comunicación con traducción en tiempo real. En la app Mensajes puedes traducir automáticamente los mensajes que recibes en otro idioma; en Teléfono y FaceTime tienes subtítulos y traducciones habladas durante las llamadas; y con AirPods (en iOS) se puede disfrutar de traducción de voz en tiempo real, ideal para viajar o conversar con personas que no hablan tu idioma.
En el terreno de la productividad, Apple Intelligence introduce funciones como Resúmenes de correo en Mail, Respuesta inteligente en Mail y Mensajes, resúmenes de notificaciones y de buzón de voz, así como resúmenes de transcripciones de notas. El sistema puede leer tus emails, notificaciones y notas de voz y condensarlos en puntos clave para que no tengas que revisarlo todo uno a uno.
Además, hay mejoras muy prácticas en la gestión del tiempo y la atención: el modo de concentración Reducir interrupciones, una gestión más inteligente de las notificaciones, recordatorios sugeridos y categorización automática en la app Recordatorios. Todo ello orientado a que el dispositivo entienda mejor qué es urgente, qué puede esperar y qué cosas son importantes para ti.
Imagen, Genmoji e Image Playground: la parte más creativa
En el área visual, Apple Intelligence destaca por dos grandes bloques: la generación de imágenes y emojis personalizados, y las funciones inteligentes de la app Fotos. Aquí es donde la IA se hace más vistosa y donde se ve el lado lúdico de la plataforma.
La app Image Playground permite generar imágenes mediante texto, al estilo de DALL‑E, con estilos predefinidos como Animación, Boceto u otros modos más artísticos. Puedes escribir una descripción, ajustar algunos parámetros y obtener una imagen generada en el dispositivo, sin necesidad de ir a la nube en muchos casos. En el iPad, esta tecnología también se integra en Notas mediante la herramienta Image Wand en la paleta de Apple Pencil, que transforma bocetos rápidos en ilustraciones más elaboradas.
Además, Apple ha creado el concepto de Genmoji: emojis generados por IA a partir de una descripción de texto o incluso basados en personas que aparecen en tus fotos. El sistema crea un emoji original que puedes usar en Mensajes como si fuera un emoji clásico, o como pegatina o reacción Tapback, tanto en apps de Apple como en apps de terceros compatibles.
La app Fotos se beneficia también de forma notable de Apple Intelligence. Ahora es posible crear vídeos de recuerdo personalizados a partir de una descripción que tú mismo escribas: el sistema busca fotos y vídeos que encajen con esa historia, los ordena siguiendo un arco narrativo y genera una película completa con temática definida. Además, la búsqueda con lenguaje natural se ha vuelto mucho más potente: puedes pedir “la foto en la que estoy con camiseta roja en la playa al atardecer” y el sistema identifica el momento exacto, incluso dentro de videoclips.
En iOS, una función llamada Limpieza en la app Fotos permite eliminar elementos no deseados de las imágenes (personas que se cuelan en el fondo, objetos molestos, etc.) de forma muy similar a las herramientas de borrado mágico de otros fabricantes, pero integrada de forma nativa en la app de Apple.
Visual Intelligence: la IA que entiende lo que ves
Entre todas las funciones de Apple Intelligence, Visual Intelligence es probablemente la que mejor define hacia dónde quiere ir Apple con la IA. Se trata de un conjunto de capacidades centradas en analizar lo que ve la cámara o lo que aparece en pantalla, y ofrecer información o acciones relevantes en función de ese contenido.
En el iPhone, Visual Intelligence permite identificar lugares, elementos del entorno, plantas, animales y objetos simplemente apuntando con la cámara. También puede detectar texto en el mundo real (carteles, menús, pósters) y ayudarte a traducirlo, guardarlo como nota o crear un evento de calendario a partir de la información detectada.
La función se puede invocar manteniendo pulsado el control de la cámara o el botón de acción en iPhone 16 y modelos posteriores, o desde capturas de pantalla para analizar el contenido de lo que estás viendo en una app. A partir de ahí, puedes pedirle al sistema que resuma un texto largo, traduzca un menú en otro idioma, identifique ingredientes de un plato o sugiera acciones como guardar un número de teléfono o una dirección.
Visual Intelligence no solo se apoya en los modelos de Apple: cuando es necesario, puede enviar la consulta a ChatGPT (si das tu consentimiento) o lanzar una búsqueda en Google y otras apps compatibles. Es, en cierto modo, el equivalente a Google Lens dentro del ecosistema de Apple, pero profundamente integrado con Siri y el resto de funciones de Apple Intelligence.
Tim Cook ha señalado en varias ocasiones que Visual Intelligence es una de sus funciones favoritas, y no es casual: los productos de hardware en los que trabaja Apple de cara al futuro —gafas inteligentes, accesorios tipo colgante y AirPods con cámara— giran precisamente alrededor de esta idea de “ojos y oídos para la IA”, capaces de entender el contexto del usuario en tiempo real.
Dispositivos futuros: colgantes, AirPods con cámara y gafas inteligentes
Diversas filtraciones y reportes de periodistas como Mark Gurman apuntan a que Apple está preparando una nueva generación de dispositivos centrados en la IA donde Visual Intelligence será la estrella. La idea es ir más allá del iPhone como centro absoluto y apostar por accesorios que funcionen en tándem con él, pero que asuman parte de su papel en el día a día.
Uno de los proyectos que más ruido ha generado es un colgante portátil con un tamaño similar a un AirTag, pensado para llevar en la ropa o al cuello. Este dispositivo incorporaría una cámara y micrófonos, y se apoyaría en el iPhone para procesar la información con Apple Intelligence. Imagina poder preguntarle al colgante qué ingredientes tiene el plato que estás comiendo, o pedirle orientación sobre cómo arreglar un grifo mientras lo estás mirando.
Otra línea de trabajo son unos AirPods con cámara integrada. Más allá de la música o las llamadas, estos auriculares podrían captar el entorno y enviar las imágenes al iPhone para que Visual Intelligence y Siri te den información relevante: desde indicaciones más precisas para llegar a un sitio (“cuando veas esa señal, gira a la derecha”) hasta explicaciones paso a paso sobre cómo cocinar una receta mientras observas los ingredientes.
Por supuesto, Apple también está desarrollando gafas inteligentes como alternativa a las Ray‑Ban de Meta. Según las filtraciones, estas gafas podrían llegar alrededor de 2027 y no tendrían pantalla como tal, pero sí altavoces y micrófonos, además de un sistema de cámara dual: una para fotos y vídeos y otra dedicada a las funciones de Visual Intelligence. El objetivo sería ofrecer un asistente que observe lo que tú ves y te proporcione ayuda contextual sin necesidad de sacar el iPhone del bolsillo.
Dentro de este ecosistema de dispositivos IA‑centrados, Visual Intelligence podría encargarse de recordatorios contextuales: avisarte de que tires la basura cuando vea la bolsa en la puerta, recordarte que la leche está a punto de caducar al registrar la fecha del brick, o sugerirte acciones basadas en objetos y situaciones que detecta en tiempo real. Todo ello siempre mediado por la filosofía de privacidad de Apple.
Siri, crisis de credibilidad y el papel de los grandes modelos externos
A pesar de todo este despliegue, Apple tiene una deuda pendiente con los usuarios en materia de IA, y esa deuda tiene nombre propio: Siri. Cuando se anunció Apple Intelligence, se presentó también una nueva Siri mucho más potente y contextual, que sin embargo se retrasó y no llegó en los plazos esperados, generando una de las mayores crisis de credibilidad de la era Tim Cook.
El asistente, tal y como se demostró después, sigue en la hoja de ruta con las mismas funciones que se describieron en 2024: mejor comprensión del lenguaje, más flexibilidad en las solicitudes, voz más natural, capacidad de escribirle en lugar de hablarle y una integración mucho más profunda con las apps y los contenidos personales del usuario. Pero el retraso ha sembrado dudas razonables sobre la capacidad de Apple para ejecutar su estrategia de IA al ritmo que demanda el mercado.
Para compensar esta situación, Apple se ha apoyado en acuerdos con terceros. El más sonado es el de OpenAI, que permite integrar ChatGPT (basado en GPT‑4o) en experiencias como Siri, Herramientas de Escritura e Image Playground, ofreciendo respuestas más creativas y sofisticadas cuando los modelos propios de Apple se quedan cortos o cuando la tarea lo justifica.
Además, Apple ha confirmado que trabajará con otros modelos como Google Gemini, que también se incorporarán a Apple Intelligence. La estrategia es clara: usar modelos externos de referencia cuando aporten valor, pero centrar el esfuerzo interno en controlar la experiencia, la integración con el ecosistema y, sobre todo, la privacidad y el rendimiento en sus propios chips.
Esta combinación de motores de IA propios y de terceros puede permitir a Apple recuperar terreno frente a la competencia sin tener que desarrollar desde cero cada pieza tecnológica, al tiempo que ofrece una experiencia coherente dentro de sus sistemas operativos y dispositivos.
La combinación de retrasos y competencia ha coincidido con movimientos en el talento: Apple ha perdido talento clave en IA en los últimos años, algo que también influye en la percepción de su capacidad para competir al ritmo de rivales como Google o Meta.
Apple Intelligence en visionOS y watchOS: qué aporta a Apple Vision Pro y Apple Watch
Apple Intelligence no se queda en el iPhone, iPad y Mac: también impulsa funciones clave en Apple Vision Pro y Apple Watch, adaptadas a la forma en que usamos cada dispositivo en el día a día.
En visionOS 26 y versiones posteriores, Apple Intelligence está detrás de funciones como Genmoji, Image Playground, Varita Gráfica y Herramientas de Escritura, todo ello integrado en el entorno inmersivo de Vision Pro. Además, permite redactar textos con la ayuda de ChatGPT dentro de estas herramientas, obtener respuestas inteligentes en Mail y Mensajes, generar resúmenes de emails, mensajes y notificaciones, resumir transcripciones de notas, crear vídeos de recuerdo en Fotos y buscar con lenguaje natural en la fototeca.
En el ámbito de la concentración, Vision Pro también se beneficia del modo Reducir interrupciones, que utiliza Apple Intelligence para filtrar y priorizar qué notificaciones merecen tu atención cuando estás trabajando o disfrutando de contenido inmersivo. Y, como en el resto de plataformas, puedes crear fondos personalizados en Mensajes y marcar correos importantes como mensajes prioritarios en Mail.
En watchOS 26 y posteriores, cuando el Apple Watch está enlazado con un iPhone compatible con Apple Intelligence, entran en juego varias funciones interesantes, como Workout Buddy (contenido disponible solo en inglés), que utiliza IA para acompañarte en tus entrenamientos, resúmenes de notificaciones directamente en la muñeca y traducción en tiempo real en la app Mensajes.
En conjunto, estas funciones hacen que Apple Intelligence se convierta en un hilo conductor entre todos los dispositivos del ecosistema: lo que empiezas en el iPhone puede continuar en el Mac, lo que ves en Vision Pro puede resumirse con IA y lo que llega al Apple Watch se filtra para que solo te moleste lo imprescindible.
Apple Intelligence para desarrolladores: Xcode, Swift Assist y más
Apple no se ha olvidado de los desarrolladores. Apple Intelligence se integra de forma profunda en Xcode 16 y las herramientas de desarrollo, con el objetivo de acelerar la creación de apps y facilitar la adopción de IA dentro del ecosistema.
La novedad más destacada es una función de autocompletado de código predictivo, similar a GitHub Copilot, que se ejecuta en el dispositivo y está entrenada específicamente en el lenguaje Swift y en las APIs de Apple. Esta función sugiere líneas de código, fragmentos completos e incluso estructuras de funciones, ayudando a escribir más rápido y con menos errores.
Además, Apple ha creado Swift Assist, una experiencia de chat dentro de Xcode que utiliza modelos en la nube para generar y editar código Swift a partir de instrucciones en lenguaje natural. Puedes pedirle que te escriba una función, que adapte un bloque de código existente o que te explique por qué algo no funciona como esperas.
Para que la finalización de código on‑device funcione, Apple exige que la Mac tenga al menos 16 GB de memoria RAM, lo que subraya una vez más las necesidades de recursos de estos modelos. Por otro lado, Apple ofrece a los desarrolladores la posibilidad de usar los modelos de Apple Intelligence dentro de la app Atajos, creando “Acciones inteligentes” y flujos de trabajo que se benefician de la IA para decidir qué hacer en cada momento.
Todo esto apunta a un futuro en el que las apps de terceros podrán aprovechar Apple Intelligence de forma mucho más directa, ofreciendo experiencias personalizadas y contextuales sin necesidad de enviar datos a servidores externos, siempre respetando los principios de privacidad que Apple ha puesto en el centro de su estrategia.
El conjunto de tecnologías que agrupa Apple Intelligence deja claro que Apple quiere que la IA esté presente en todo lo que haces con sus dispositivos, desde escribir un simple mensaje hasta organizar tu vida digital, entender el mundo que te rodea con la cámara o desarrollar la próxima generación de apps. Lo hace combinando modelos en el dispositivo, computación privada en la nube y alianzas con gigantes como OpenAI y Google, sin perder de vista la privacidad y la integración con su ecosistema. Aunque queda camino por recorrer —especialmente en lo que respecta a la nueva Siri y a los futuros dispositivos centrados en Visual Intelligence—, la base que ya está desplegada en iPhone, iPad, Mac, Apple Watch y Vision Pro sitúa a Apple en una posición mucho más sólida en la carrera de la IA, con un enfoque muy propio y claramente diferenciado del resto de la industria.