A Apple está a preparar uma Siri muito diferente da que conheces, uma assistente que compreenderá o contexto, lembrará conversas e será capaz de coordenar tarefas entre apps sem perder o fio. Nos bastidores, a empresa montou um ambiente de testes com uma app ao estilo ChatGPT que não verá a luz pública, mas que está a servir para validar a nova arquitetura, aperfeiçoar funcionalidades e medir se um formato conversacional tradicional traz valor. Consegues imaginar retomar um plano de viagem dias depois e a Siri lembrar cada detalhe sem teres de repetir tudo?

Um banco de testes secreto para a nova Siri

O laboratório da Apple não é um chatbot para consumidores, mas uma ferramenta interna com a qual as equipas experimentam uma Siri mais consciente do contexto e capaz de atuar em cadeia entre aplicações. A ideia é que possas, por exemplo, recolher uma lista de compras no Notas, reservar uma janela de entrega na tua app de compras e colocar lembretes no calendário, tudo numa mesma conversa e sem interromper o fluxo. Além disso, essa conversa pode ser mantida ao longo do tempo, guardar o histórico e permitir perguntas de seguimento ligadas entre si, inclusive saltando do iPhone para o Mac sem perder a continuidade.

Esta abordagem não procura apenas diálogos mais naturais, mas também habilitar fluxos de trabalho inteligentes que reduzam o vai e vem entre apps. A app interna permite gerir múltiplos fios, armazenar e referenciar chats anteriores e sustentar trocas prolongadas para tarefas complexas, como planear uma viagem e modificá‑la dias depois. Em paralelo, a Apple está a testar diferentes modelos de linguagem, desde opções da OpenAI e Anthropic até variantes do Google Gemini, ao mesmo tempo que valida os seus próprios modelos para preservar a privacidade quando o assistente precisar de procurar dados do utilizador no dispositivo.

apple

Arquitetura 2.0 e um motor de respostas

A mudança vai além de «colocar um LLM» à frente: a Apple decidiu refazer a Siri desde a base porque a arquitetura original ficava curta na gestão de contexto, conversas longas e integração profunda com as apps. Esta segunda geração apoia‑se em modelos de linguagem grandes para gerir o diálogo, manter memória a longo prazo e orquestrar ações. De facto, a empresa está a construir internamente um sistema chamado World Knowledge Answers, um autêntico motor de respostas capaz de combinar texto, fotos, vídeos e pontos de interesse, e de resumir resultados de pesquisa para oferecer uma síntese clara e acionável.

Esse motor encaixa com a ambição de transformar a Siri, o Safari e o Spotlight em pontos de entrada para uma camada de pesquisa mais inteligente. Em vez de se limitar a temporizadores ou comandos básicos, o assistente poderá processar perguntas complexas e devolver respostas úteis num único lugar, um movimento que a coloca frente a propostas como os AI Overviews do Google ou ferramentas tipo Perplexity. O resultado esperado? Conversas contínuas, respostas mais humanas e tarefas encadeadas que se sentem nativas no ecossistema, algo que lembra aquele salto de qualidade que experimentas quando uma funcionalidade se integra verdadeiramente no sistema em vez de funcionar como um aditamento externo.

Parcerias, privacidade e o calendário da Apple

A Apple aposta por um enfoque pragmático: combinar diferentes fornecedores para acelerar sem ceder o controlo da experiência. Segundo o indicado, a empresa manteve conversas com Anthropic, OpenAI e Google, e está a testar mesmo um modelo Gemini personalizado sob acordo para potenciar algumas capacidades da Siri, tudo isso enquanto avalia os seus próprios modelos para funções de planeamento e utiliza os seus Foundation Models para procurar dados pessoais de forma local, mantendo a informação sensível em casa. É o equilíbrio entre potência e privacidade que muitos utilizadores esperam do fabricante.

Quanto a prazos, a folha de rota aponta que a versão com LLM chegaria no início de 2026, possivelmente como parte de uma atualização tipo iOS 26.4 prevista para março. Antes, no final do próximo ano, a Apple planeia mostrar um novo aspeto da Siri com um ar mais humano, inspirado no logotipo do Finder do Mac, e mais adiante, já em 2026, chegaria outra renovação visual acompanhada de uma função de saúde integrada que serviria de base para um serviço de bem‑estar pago. Em paralelo, a empresa terá descartado lançar uma app de chatbot independente para se concentrar em embutir a IA nas suas camadas de pesquisa nativas, embora continue a verificar — com esse banco de testes — se uma janela de chat clássica tem lugar na experiência.

Pode ser que o calendário pareça conservador perante rivais que lançam novidades mensalmente, mas essa margem permite‑lhes afinar para que tudo se sinta orgânico e coerente com iOS e macOS. Na ActualApp vemos isto como a passagem de «modo básico» para «modo turbo»: uma Siri com memória, contexto e mãos dentro das apps, avaliada com tecnologias como ChatGPT e Google Gemini, e desenhada para se integrar em cada recanto do sistema. Se vives no ecossistema Apple, isto promete ser o maior salto do assistente desde o seu nascimento; a pergunta é se conseguirão manter o seu selo de privacidade e essa integração impecável enquanto igualam a capacidade dos concorrentes.

Edu Diaz
Edu Diaz

Cofundador da Actualapp e apaixonado por inovação tecnológica. Formado em História e programador de profissão, combino o rigor acadêmico com o entusiasmo pelas últimas tendências tecnológicas. Há mais de dez anos, sou blogueiro de tecnologia e meu objetivo é oferecer conteúdo relevante e atualizado sobre o tema, com uma abordagem clara e acessível a todos os leitores. Além da minha paixão por tecnologia, gosto de assistir séries de televisão e adoro compartilhar minhas opiniões e recomendações. E, claro, tenho opiniões fortes sobre pizza: nada de abacaxi, com certeza. Junte-se a mim nesta jornada para explorar o fascinante mundo da tecnologia e suas inúmeras aplicações em nosso dia a dia.