Apple está cocinando una Siri muy distinta a la que conoces, una asistente que entenderá el contexto, recordará conversaciones y será capaz de coordinar tareas entre apps sin perder el hilo. Detrás del telón, la compañía ha montado un entorno de pruebas con una app de estilo ChatGPT que no verá la luz pública, pero que está sirviendo para validar la nueva arquitectura, pulir funciones y medir si un formato conversacional tradicional aporta valor. ¿Te imaginas retomar un plan de viaje días después y que Siri recuerde cada detalle sin tener que repetirlo todo?

Un banco de pruebas secreto para la nueva Siri

El laboratorio de Apple no es un chatbot para consumidores, sino una herramienta interna con la que los equipos experimentan con una Siri más consciente del contexto y capaz de actuar en cadena entre aplicaciones. La idea es que puedas, por ejemplo, recoger una lista de la compra en Notas, reservar una ventana de entrega en tu app de shopping y colocar recordatorios en el calendario, todo en una misma conversación y sin romper el flujo. Además, esa conversación puede mantenerse a lo largo del tiempo, guardar el historial y permitir repreguntas conectadas entre sí, incluso saltando de iPhone a Mac sin perder la continuidad.

Este enfoque no busca únicamente charlas más naturales, sino habilitar flujos de trabajo inteligentes que reduzcan el vaivén entre apps. La app interna permite gestionar múltiples hilos, almacenar y referenciar chats anteriores y sostener intercambios prolongados para tareas complejas, como planificar un viaje y modificarlo días después. En paralelo, Apple está probando distintos modelos de lenguaje, desde opciones de OpenAI y Anthropic hasta variantes de Google Gemini, a la vez que valida sus propios modelos para preservar la privacidad cuando el asistente necesite buscar datos del usuario en el dispositivo.

apple

Arquitectura 2.0 y un motor de respuestas

El cambio va más allá de «poner un LLM» delante: Apple ha decidido rehacer Siri desde la base porque la arquitectura original se quedaba corta gestionando contexto, conversaciones largas e integración profunda con las apps. Esta segunda generación se apoya en modelos de lenguaje grandes para manejar el diálogo, mantener memoria a largo plazo y orquestar acciones. De hecho, la compañía está construyendo internamente un sistema llamado World Knowledge Answers, un auténtico motor de respuestas capaz de combinar texto, fotos, vídeos y puntos de interés, y de resumir resultados de búsqueda para ofrecer una síntesis clara y accionable.

Ese motor encaja con la ambición de convertir a Siri, Safari y Spotlight en puntos de entrada a una capa de búsqueda más inteligente. En lugar de limitarse a temporizadores o comandos básicos, el asistente podrá procesar preguntas complejas y devolver respuestas útiles en un solo lugar, un movimiento que la coloca frente a propuestas como los AI Overviews de Google o herramientas tipo Perplexity. ¿El resultado esperado? Conversaciones continuas, respuestas más humanas y tareas encadenadas que se sienten nativas en el ecosistema, algo que recuerda a ese salto de calidad que experimentas cuando una función se integra de verdad en el sistema en lugar de funcionar como un añadido externo.

Alianzas, privacidad y el calendario que se maneja Apple

Apple apuesta por un enfoque pragmático: combinar distintos proveedores para acelerar sin ceder el control de la experiencia. Según se indica, la compañía ha mantenido conversaciones con Anthropic, OpenAI y Google, y está probando incluso un modelo Gemini personalizado bajo acuerdo para impulsar algunas capacidades de Siri, todo ello mientras evalúa sus propios modelos para funciones de planificación y utiliza sus Foundation Models para buscar datos personales de forma local, manteniendo la información sensible en casa. Es el equilibrio entre potencia y privacidad que muchos usuarios esperan del fabricante.

En cuanto a tiempos, la hoja de ruta apunta a que la versión con LLM llegaría a comienzos de 2026, posiblemente como parte de una actualización tipo iOS 26.4 prevista para marzo. Antes, a finales del próximo año, Apple planea enseñar un nuevo aspecto de Siri con un aire más humano, inspirado en el logotipo del Finder del Mac, y más adelante, ya en 2026, llegaría otra renovación visual acompañada de una función de salud integrada que serviría de base para un servicio de bienestar de pago. Paralelamente, la compañía habría descartado lanzar una app de chatbot independiente para centrarse en incrustar la IA en sus capas de búsqueda nativas, aunque sigue comprobando —con ese banco de pruebas— si una ventana de chat clásica tiene cabida en la experiencia.

Puede que el calendario parezca conservador frente a rivales que lanzan novedades mensualmente, pero ese margen les permite afinar para que todo se sienta orgánico y coherente con iOS y macOS. En ActualApp lo vemos como el paso de «modo básico» a «modo turbo»: una Siri con memoria, contexto y manos dentro de las apps, evaluada con tecnologías como ChatGPT y Google Gemini, y diseñada para integrarse en cada rincón del sistema. Si vives en el ecosistema Apple, esto pinta a ser el mayor salto del asistente desde su nacimiento; la pregunta es si lograrán mantener su sello de privacidad y esa integración impecable mientras igualan la capacidad de los competidores.

Edu Diaz
Edu Diaz

Cofundador de Actualapp y apasionado de la innovación tecnológica. Licenciado en historia y programador de profesión, combino el rigor académico con el entusiasmo por las últimas tendencias tecnológicas. Desde hace más de diez años, soy redactor de blogs de tecnología y mi objetivo es ofrecer contenido relevante y actualizado sobre todo este mundo, con un enfoque claro y accesible para todos los lectores. Además de mi pasión por la tecnología, disfruto de las series de televisión y me encanta compartir mis opiniones y recomendaciones. Y, por supuesto, tengo opiniones firmes sobre la pizza: definitivamente, sin piña. Únete a mí en este viaje para explorar el fascinante mundo de la tecnología y sus múltiples aplicaciones en nuestra vida cotidiana.