Gemini Nano arrive dans Chrome : l'IA locale en 3 étapes

Pourquoi ça compte pour toi
Si tu builds une extension Chrome ou un site web, tu peux maintenant ajouter de l'IA sans envoyer de données ailleurs. Recherche améliorée, résumés, filtrage de contenu : tout s'exécute localement. C'est du sérieux pour les créateurs qui veulent rester indépendants.
Ce qu'il faut retenir
- 1.Prompt API exécute Gemini Nano directement dans Chrome (Windows 10+, macOS 13+, Linux, ChromeOS)
- 2.Faut 22 GB libres, 16 GB RAM ou GPU 4GB+ pour que ça marche sans ralentir
- 3.L'API supporte texte, audio, image en entrée ; tu peux créer des sessions contextualisées avec des prompts initiaux
- 4.Disponible via extensions Chrome et sites web ; Android/iOS pas supportés pour l'instant
## Pourquoi c'est un game-changer
Jusqu'à maintenant, si tu voulais de l'IA dans ton app web, tu devais soit passer par une API externe (OpenAI, Anthropic), soit renoncer. Maintenant ? Le modèle se télécharge une fois, ensuite il tourne en local. Zéro latence réseau, zéro données qui quittent l'ordinateur de l'utilisateur.
## Comment ça marche concrètement
**Étape 1 : Vérifier la disponibilité**
D'abord, tu checks si le modèle est prêt :
```javascript const availability = await LanguageModel.availability(); ```
Si c'est "downloading", le navigateur télécharge Gemini Nano (une fois suffit).
**Étape 2 : Créer une session**
```javascript const session = await LanguageModel.create(); ```
Tu peux customiser le comportement avec `temperature` (créativité) et `topK` (diversité). Pour les extensions Chrome, ça devient vraiment flexible.
**Étape 3 : Envoyer des prompts**
```javascript const response = await session.prompt([ { role: "user", content: "Résume cet article en 3 points" } ]); ```
Le truc sympa : tu peux garder un historique, ajouter du contexte initial, et même utiliser un "prefix" pour guider le format de réponse (super utile si tu veux du JSON ou du TOML).
## Les cas d'usage réalistes
- **Recherche IA sur une page** : L'utilisateur pose une question sur le contenu qu'il lit. Zéro données envoyées ailleurs. - **Feed personnalisé** : Classe et filtre les articles selon les préférences, tout en local. - **Extracteur intelligent** : Pull les infos de contact d'une page, crée un événement calendar. Les extensions Chrome vont kiffer.
## Les limites à connaître
Faut des specs minimales : 22 GB de stockage, 16 GB RAM ou un GPU avec 4 GB VRAM. Pas de support mobile pour l'instant (Android/iOS). Audio en entrée ? T'as besoin d'un GPU. Et le modèle peut grossir à chaque update de Chrome—tu peux checker sa taille réelle sur `chrome://on-device-internals`.
Le modèle accepte l'anglais, le japonais et l'espagnol nativement. D'autres langues arrivent.
## Pour les devs
Si tu fais une extension Chrome, tu as accès à plus de contrôle : tu peux setter les params du modèle, gérer les AbortSignals pour annuler une requête. Pour un site web classique, c'est plus limité mais ça suffit pour 90% des cas.
Essayer maintenant
Explorer la documentation Prompt API →Source
Pour aller plus loin
Cet article t'a donné envie d'approfondir ? Deux formations Noésis t'attendent :
Tu aimes ce qu'on fait ?
Noésis vit grâce à des lecteurs comme toi. Dès 3 €, annulable 1 clic.
Explorer les thèmes de cet article :