Apple ha levantado el telón sobre la ingeniería detrás de sus nuevos modelos de lenguaje presentados en la WWDC 2025, y los detalles no podrían ser más reveladores para cualquier geek de la inteligencia artificial (IA) y la arquitectura computacional. En su informe técnico titulado “Apple Intelligence Foundation Language Models – Tech Report 2025”, la compañía de Cupertino nos guía por el meticuloso proceso de diseño, entrenamiento y evaluación de sus modelos tanto en la nube como en dispositivos locales. ¿Qué hay de nuevo bajo el capó? Mucho más de lo que imaginas.

Un modelo local más ligero y eficiente

Los modelos que funcionan localmente en los dispositivos de Apple tienen una particularidad clave: están diseñados para ser rápidos y eficientes, sin sacrificar calidad. El modelo del dispositivo, compuesto por unos 3.000 millones de parámetros, ha sido ingeniosamente dividido en dos bloques: el primero abarca el 62,5% de las capas transformer, mientras que el segundo contiene el 37,5% restante, pero sin las proyecciones de clave y valor. Esta separación permite reducir en un 37,5% la memoria necesaria para el caching y también acelera el tiempo de respuesta para producir el primer token.

Apple ya había coqueteado en el pasado con métodos que intercambiaban partes del modelo entre memoria RAM y almacenamiento interno, pero esta nueva segmentación parece ser la solución definitiva para dispositivos con recursos limitados. Eficiencia pura con sello de la casa.

Un servidor en la nube hecho a medida

En el caso de los modelos en la nube, Apple ha desarrollado una arquitectura a medida para su plataforma Private Cloud Compute, denominada Parallel-Track Mixture-of-Experts (PT-MoE). Al más puro estilo de los sistemas modulares —como los que hemos visto en modelos desarrollados por IBM—, esta estructura permite que sólo los expertos relevantes se activen dependiendo del tipo de tarea.

¿Estás pidiendo ayuda con una receta? Solo los expertos en cocina se ponen en marcha. Así, se reduce el consumo de recursos sin comprometer la calidad. En lugar de utilizar un único flujo lineal de capas transformer, Apple implementó una serie de pistas paralelas que procesan datos simultáneamente, sincronizándose solo cuando es necesario. Dentro de cada pista, capas de tipo Mixture-of-Experts activan selectivamente ciertos componentes, lo que evita cuellos de botella y aumenta la eficiencia general.

apple intelligence

Además, integraron una técnica llamada Interleaving Global and Local Attention Layers, que equilibra el análisis del contexto inmediato con una visión más amplia del mensaje. Una verdadera maravilla de diseño que recuerda a la arquitectura escalable de chips como los Tesla Dojo o el uso de Tensor Cores en las GPUs de NVIDIA.

Más idiomas, mejores datos, y privacidad como estandarte

Apple ha doblado su apuesta por el multilingüismo: el porcentaje de datos en otros idiomas diferentes al inglés ha pasado del 8% al 30%, y el vocabulario del modelo, o tokenizer, ha aumentado de 100.000 a 150.000 tokens. Esto ha permitido notables mejoras en benchmarks no anglosajones, sobre todo tras aplicar fine-tuning con aprendizaje por refuerzo.

Y no han sido solo palabras: Apple asegura que las evaluaciones se hicieron con preguntas redactadas por hablantes nativos, no traducidas, garantizando así una calidad más auténtica. Esto se traduce en funciones como el nuevo Writing Tools, que promete ofrecer resultados más naturales y eficientes en múltiples idiomas.

Sobre la procedencia de los datos, Apple mantiene su filosofía centrada en la privacidad. Utilizó principalmente páginas rastreadas por su buscador Applebot —respetando las indicaciones de robots.txt—, además de acuerdos de licencia con medios como Condé Nast o NBC. También se apoyaron en datos sintéticos generados por modelos menores para tareas complejas como codificación, matemáticas o entrenamiento instruccional.

La dimensión visual tampoco fue olvidada. Apple recopiló más de 10.000 millones de pares imagen-texto, incluidos pantallazos con OCR y notas manuscritas, y empleó modelos propios para generar descripciones más ricas. Es probable que parte de esta información provenga de acuerdos con bancos de imágenes como Shutterstock.

¿Apple va tarde en la carrera de la IA?

Muchos críticos argumentan que Apple se ha quedado rezagada frente a competidores como OpenAI o Google DeepMind, y no les falta razón. Sin embargo, este informe demuestra que en Cupertino se cuece ciencia de primer nivel, y con un enfoque especialmente centrado en la privacidad, algo que pocas big techs pueden presumir de igualar.

Lo fascinante de este despliegue técnico no es solo su nivel de detalle, sino también el horizonte que abre para desarrolladores y usuarios. ¿Estamos ante el inicio de una nueva era en IA integrada en Apple, o se trata solo de una mejora evolutiva? Lo que sí está claro es que, con estos avances, el universo Apple Intelligence promete dar mucho juego en los próximos años.

Edu Diaz

Edu Diaz

Cofundador de Actualapp y apasionado de la innovación tecnológica. Licenciado en historia y programador de profesión, combino el rigor académico con el entusiasmo por las últimas tendencias tecnológicas. Desde hace más de diez años, soy redactor de blogs de tecnología y mi objetivo es ofrecer contenido relevante y actualizado sobre todo este mundo, con un enfoque claro y accesible para todos los lectores. Además de mi pasión por la tecnología, disfruto de las series de televisión y me encanta compartir mis opiniones y recomendaciones. Y, por supuesto, tengo opiniones firmes sobre la pizza: definitivamente, sin piña. Únete a mí en este viaje para explorar el fascinante mundo de la tecnología y sus múltiples aplicaciones en nuestra vida cotidiana.