Google : Les modèles d'IA mobiles consomment d'importantes ressources mémoire

Controverse autour du modèle d'IA "Gemini" des Google Pixel 8 et Pixel 8 Pro

Le 31 mars, Google a annoncé que seul le Pixel 8 Pro, parmi ses derniers smartphones, pouvait exécuter l'avancé modèle d'IA "Google Gemini". Bien que les deux appareils partagent des spécifications similaires, Google a évoqué des "limitations matérielles" comme raison de l'exclusion du modèle pour le Pixel 8. Cette explication a suscité des interrogations, d'autant plus que Google a positionné le Pixel 8 comme un appareil centré sur l'IA et a conçu un modèle “Gemini Nano” spécifiquement pour lui, bien que les deux ne soient pas compatibles.

Des semaines plus tard, Google a semblé faire un compromis, révélant que le Pixel 8 bénéficierait des fonctionnalités "Gemini Nano" lors de la mise à jour trimestrielle de juin, mais avec une condition : tandis que les utilisateurs du Pixel 8 Pro auraient un accès direct à cette fonctionnalité, les utilisateurs du Pixel 8 devaient l'activer via des options de développeur cachées, rendant l'accès moins facile pour la plupart. Seang Chau, vice-président du logiciel de dispositifs et services chez Google, a expliqué dans son podcast "Made by Google" que cette décision était due à des différences matérielles. Il a noté que les 12 Go de RAM du Pixel 8 Pro conviennent parfaitement à l’exécution de "Gemini Nano", tandis que les 8 Go de RAM du Pixel 8 pourraient nuire à l'expérience utilisateur.

Chau a également mis en lumière les défis liés à l'exécution de grands modèles de langage (LLMs) sur les smartphones. Il a précisé que certains modèles d'IA nécessitent une "mémoire persistante" pour un accès instantané. Par exemple, la fonction de "réponse intelligente" exige cette mémoire persistante pour garantir une réactivité lors de l'utilisation de Gboard. Ainsi, la fonction de réponse intelligente basée sur Gemini sur les deux appareils est cachée dans les options de développeur, sans support dans les paramètres standard du clavier.

Cela soulève des inquiétudes quant à la consommation potentielle de mémoire système par Gemini Nano, sans possibilité de libération facile. Bien que la RAM minimale requise pour la plupart des smartphones Android soit actuellement de 8 Go, cette norme pourrait augmenter à l'avenir. Les appareils phares affichent maintenant jusqu'à 24 Go de RAM, avec des modèles populaires ayant typiquement 12 ou 16 Go.

Fait intéressant, la version de base de la série Galaxy S24 de Samsung ne dispose également que de 8 Go de RAM, mais peut exécuter le modèle Gemini Nano, ce qui remet en question les affirmations initiales de Google concernant les "limitations matérielles" du Pixel 8. En fin de compte, la question se résume à combien de mémoire disponible les utilisateurs sont prêts à sacrifier pour cette fonctionnalité.

Cependant, une question fondamentale demeure : les utilisateurs ordinaires ont-ils réellement besoin de telles fonctionnalités ? L'IA générative est actuellement un sujet brûlant, et l'impulsion de Google en matière de technologie AI est étroitement liée à ses intérêts commerciaux. Bien que des applications comme ChatGPT apportent de la valeur, les fonctions IA génératives au niveau du système d'exploitation restent limitées. Bien que la génération automatique de réponses puisse aider certains utilisateurs, les exigences en matière de mémoire pourraient pousser beaucoup à désactiver complètement cette fonctionnalité.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles