Une nouvelle ère d'intelligence artificielle pour Android
Lors de l'événement Android Show : I/O Edition, Google a dévoilé une série de fonctions inédites baptisées Gemini Intelligence. Ces ajouts placent l'écosystème Android à la pointe de l'IA générative, en offrant des capacités d'agentivité, de navigation autonome et même la création de widgets via une simple description en langage naturel.
Des tâches multi‑étapes prises en charge par Gemini
Le nouveau compagnon virtuel peut désormais orchestrer des processus complexes en quelques secondes. L'utilisateur active l'assistant en appuyant sur le bouton d’alimentation, puis dicte une requête telle que « Copie ma liste de courses depuis Notes et ajoute chaque article au panier de mon appli d’achat ». Le smartphone analyse le contenu affiché à l’écran, utilise ce contexte comme référence, puis exécute chaque opération dans l’ordre requis. Avant de finaliser l’achat, Gemini attend une confirmation explicite, garantissant ainsi un contrôle total et évitant toute démarche involontaire.
Navigation web automatisée intégrée à l’appareil
Après un lancement expérimental en janvier, la fonction d'auto‑navigation se déploie désormais sur l’ensemble des appareils Android. Gemini parcourt les sites, récupère les informations nécessaires et accomplit des actions comme la prise de rendez‑vous ou la réservation d'un cours de sport. Cette capacité s’ajoute à l’assistant déjà présent dans Chrome sur ordinateur, qui propose dès cet été des résumés instantanés et des réponses contextuelles aux contenus des pages.
Formulaires remplis grâce à l’Intelligence Personnelle
En s’appuyant sur le module Personal Intelligence, Gemini apprend les données de l’utilisateur et peut compléter automatiquement les formulaires en ligne. Cette fonctionnalité est strictement opt‑in ; les paramètres permettent de l’activer ou de la désactiver à tout moment, préservant la confidentialité et le consentement de chacun.
Gboard et la dictée à la tonalité naturelle
L’intégration de Gemini à Gboard introduit le mode « Rambler », une dictée qui conserve le style personnel de l’orateur. En plus de transcrire la parole, l’outil élimine les mots de remplissage et formate le texte, offrant ainsi une rédaction fluide et professionnelle sans effort supplémentaire.
Création de widgets via le codage Vibe
Le concept « vibe‑code » gagne du terrain, et Google le propose aux utilisateurs Android. En formulant simplement une demande du type « Suggère trois recettes riches en protéines chaque semaine », le système génère automatiquement un widget personnalisé qui s’affiche sur l’écran d’accueil. Cette approche s’aligne sur le design Material 3, garantissant une esthétique cohérente et expressive.
Déploiement progressif et perspectives d’avenir
Les premières implémentations toucheront les modèles Samsung Galaxy et Google Pixel prévus pour l’été, avant de s’étendre à l’ensemble des appareils Android au cours de l’année. Cette vague d’innovation positionne Google comme un acteur majeur dans la convergence entre IA générative et expérience mobile, laissant entrevoir de futures extensions, notamment des interactions plus sûres et une personnalisation accrue.
Source: https://techcrunch.com/2026/05/12/google-brings-agentic-ai-and-vibe-coded-widgets-to-android/