– Europa Press/Contacto/Algi Febri Sugita – Archivo
MADRID, 26 Mar. (Portaltic/EP) –
Apple tiene acceso completo a los modelos de inteligencia artificial (IA) de Google Gemini dentro de sus propios centros de datos, lo que le permite utilizar estos modelos para entrenar versiones más eficientes y pequeñas optimizadas para sus dispositivos, a través del método de destilación.
Dentro del marco del acuerdo plurianual anunciado por ambas compañías en enero de este año, se prevé que el fabricante de iPhone base sus Modelos Fundacionales en los modelos de Gemini y la tecnología en la nube de Google, con el objetivo de contar con la tecnología necesaria para impulsar sus funciones de Apple Intelligence y la nueva versión de Siri.
En el momento del anuncio, Apple no ofreció muchos detalles sobre cómo se llevaría a cabo esta colaboración, aunque fuentes cercanas señalaron que podrían modificar de forma independiente los modelos de Gemini para adaptarlos a sus necesidades y ofrecer una experiencia de usuario sin la marca de Google.
Ahora, se ha revelado que el acuerdo va más allá y permite que Apple tenga acceso total a los modelos de Gemini a través de los propios centros de datos de Google. De esta forma, la compañía puede experimentar directamente con la IA del gigante tecnológico para entrenar sus propios Modelos Fundacionales.
Como resultado, Apple podrá utilizar los modelos más complejos de Gemini para entrenar modelos de IA más pequeños y eficientes, optimizados específicamente para sus dispositivos, mediante un proceso de destilación, tal y como ha podido saber The Information.
Este proceso es una práctica de ‘machine learning’ que permite transferir los conocimientos de un modelo de IA a otro. Así, un modelo más pequeño (modelo alumno) puede imitar el comportamiento de redes neuronales más grandes (modelo profesor), aprendiendo sus predicciones y utilizando sus datos, sin requerir una gran potencia de cálculo.
En otras palabras, Apple podrá utilizar Gemini como modelo profesor para sus propios modelos más pequeños y enfocar su uso para dispositivos concretos como el iPhone, iPad o Mac, requiriendo menos potencia de cálculo pero garantizando resultados óptimos.
Esta técnica de destilación permitiría a Apple ejecutar el procesamiento de tareas de IA de forma local en el propio dispositivo, en lugar de depender de la nube. Esto cumpliría con la intención de la compañía de mantener el funcionamiento de Apple Intelligence y Siri en los dispositivos, mediante Private Cloud Compute.
Todo ello, con el objetivo de mantener los estándares de privacidad característicos de la compañía, utilizando los datos de los usuarios de forma segura.
Asimismo, el medio citado ha puntualizado que la intención de Apple no es entrenar modelos pequeños para generar uno más grande que compita con los principales modelos de IA del sector.
APLICACIÓN INDEPENDIENTE PARA LA NUEVA SIRI
Parte de la inversión de Apple en la IA de Gemini está destinada a potenciar su nueva versión del asistente Siri, que ofrecerá capacidades más inteligentes y servicios más útiles para los usuarios.
Por ejemplo, mejorará sus respuestas ofreciendo información concreta sobre las solicitudes en lugar de enlaces a sitios web y podrá ofrecer respuestas conversacionales más completas, además de ejecutar funciones en el dispositivo como enviar un mensaje de texto a un contacto específico o crear recordatorios.
Sin embargo, Apple también está probando una aplicación independiente para Siri, junto con una nueva función de ‘Pregunta a Siri’ que funcionará con todas las opciones de ‘software’ de la compañía, según ha compartido el analista y periodista de Bloomberg Mark Gurman.
La aplicación dedicada para Siri estará disponible en iPhone, iPad y Mac a finales de este año y mostrará una interfaz con conversaciones previas del asistente, con una apariencia similar a la aplicación de Mensajes de Apple, combinando burbujas de mensajes y un modo de interacción por voz.
La función de ‘Pregunta a Siri’, por su parte, se basará en un interruptor que aparecerá en los menús de las aplicaciones integradas y que permitirá a los usuarios preguntar sobre el contenido en pantalla, iniciando una nueva conversación con el asistente. Por ejemplo, sobre determinados textos en una página web o consultas de correos electrónicos.
