Apple está trabajando para impulsar las funciones de Inteligencia Artificial (IA) de iOS 18 con un modelo de lenguaje de gran tamaño (LLM) de desarrollo propio integrado en los ‘smartphones’ iPhone, de manera que se procesarán en el propio dispositivo y no necesitarán acceder a la nube, priorizando la privacidad.

La tecnológica estadounidense está desarrollando nuevas características basadas en IA de cara al lanzamiento de su próxima gran actualización de sistema operativo iOS 18. Así, según se pudo conocer el pasado mes de marzo, los de Cupertino estarían negociando con Google para implementar el motor de IA generativa que desarrolla, Gemini, en sus iPhone mediante actualizaciones de ‘software’ a finales de este año.

Sin embargo, la compañía pretende introducir mejoras enfocadas a las funciones que se pueden aprovechar en sus dispositivos, en lugar de aquellas que trabajan con la nube. Por tanto, su intención es que la IA sea capaz de, por ejemplo, crear imágenes o escribir ensayos basados en indicaciones sencillas desde el propio dispositivo.

Ahora, según ha compartido el analista de Bloomberg Mark Gurman, en su último boletín informativo Power On, recogido por 9to5Mac, Apple pretende impulsar las funciones de IA de iOS 18 con un modelo LLM de desarrollo propio, capaz de funcionar de forma integrada procesando las funciones directamente desde el dispositivo y sin necesidad de utilizar la nube.

De esta forma, según ha matizado, al funcionar ‘offline‘ las funciones de IA podrán llevarse a cabo de forma privada y segura en el iPhone, ya que la información y los datos utilizados no saldrán del dispositivo. Igualmente, las funciones se podrán ejecutar con más velocidad, ya que no dependerán de otras conexiones.

En este marco, tal y como también dio a conocer Gurman en julio del pasado año, la compañía tecnológica estadounidense está trabajando en un ‘chatbot’ al que se refiere como Ajax, con el que espera desafiar a otras compañías dedicadas a esta tecnología, como Google y OpenAI.

Más tarde, en septiembre de 2023, medios como The Information recogieron que la unidad de Apple que trabaja en IA ‘Foundational Models’ continuaba trabajando en el desarrollo de herramientas conversacionales, entre las que se encuentran una dedicada a la inteligencia visual y el ‘chatbot’ Ajax, destinando para ello millones de dólares al día.

Siguiendo esta línea, recientemente se pudo conocer que investigadores de Apple han desarrollado un modelo de lenguaje que, pese a tener menos parámetros que GPT4 (desarrollado por OpenAI), ofrece un rendimiento similar a este en la comprensión de referencias ambiguas cuando interactúa con el usuario.

Se trata de RealLM (Resolución de referencia como modelado de lenguaje), un modelo con el que se mejora la naturalidad de la conversación al permitir que la IA comprenda las referencias ambiguas del lenguaje humano, por ejemplo, al referirse a algo como “eso” o “este”, que se entiende por el contexto, pero que los asistentes conversacionales de IA no pueden comprender.

Con todo ello, aunque los LLM integrados en dispositivos pueden sufrir algunas carencias, como que no cuentan con tantos parámetros de entrenamiento como los modelos que se procesan en la nube, Apple puede hacer uso de estas nuevas herramientas y tecnologías, en las que está trabajando actualmente, para implementar funciones de IA procesadas directamente desde los iPhone.

No obstante, la compañía dirigida por Tim Cook dará a conocer sus novedades respecto a la IA y a sus modelos de lenguaje en su próxima Conferencia Mundial de Desarrolladores (WWDC) de 2024, que se celebrará del 10 al 14 de junio.

Por favor Siguenos y comparte: