La inteligencia artificial nos permite realizar muchas tareas pero consume una enorme cantidad de memoria RAM cuando se ejecuta en local, una realidad que se aplica a la mayoría de los modelos de IA actuales y que no distingue entre dispositivos. Ahora es comprensible por qué Google decidió limitar la implementación de Gemini AI al Pixel 8 Pro, porque este terminal cuenta con una mayor cantidad de memoria RAM.
Ya se indicó que los smartphones basados en Android iban a necesitar mucha memoria RAM para poder mover modelos de IA de forma local, y que el requisito mínimo para modelos de IA generativa iba a estar en los 12 GB de memoria RAM. Dicha cifra es precisamente la que trae el Pixel 8 Pro, mientras que el modelo estándar solo tiene 8 GB de memoria RAM.
En un reciente vídeo de la serie «Made by Google» el gigante de Mountain View ha explicado que decidieron limitar el lanzamiento de Gemini AI al Pixel 8 Pro porque, al contar con 12 GB de RAM, este smartphone era la plataforma perfecta para ello. Con esto Google quiere decir que esa configuración de RAM era el mínimo óptimo para ofrecer una buena experiencia de uso con Gemini Nano, que es una versión de Gemini AI adaptada a las limitaciones de un smartphone.
Según Google podrían haber llevado a cabo una adaptación de Gemini Nano para que funcionase sobre el Pixel 8, pero esa versión habría ofrecido una experiencia de uso «degradada», es decir, claramente inferior si la comparamos con la misma funcionando en el Pixel 8 Pro, y que por eso al final decidió mantenerlo como una exclusiva de este último.
Google ha confirmado que ha lanzado una versión de Gemini Nano para el Pixel 8 limitada a desarrolladores, ya que entiende que esto puede ser interesante de cara a mejorar y optimizar dicho modelo.
La memoria RAM seguirá siendo clave en el futuro de la IA, y que las mejoras graduales que esta irá recibiendo harán que necesite cada vez más RAM para funcionar de forma óptima. Por ejemplo, según Seang Chau, vicepresidente de dispositivos y servicios de software de Google, están trabajando para que algunas de las funciones potenciadas por IA, como la respuesta inteligente, se mantengan de forma permanente en la RAM.
Esto significa que esas funciones tendrán un mayor consumo de RAM, aunque a cambio estarán siempre listas para ser utilizadas y ofrecerán un rendimiento y una experiencia de uso totalmente óptimas.
Permitir el consumo de una gran cantidad de RAM de forma permanente en un smartphone es un gran reto para los fabricantes.