Intermédiaire·2 min·29 avril 2026

SenseTime sort un modèle d'image ultra-rapide sur puces chinoises

Un modèle d'IA chinois qui comprend les images directement, sans passer par du texte, pour des robots plus intelligents.
SenseTime sort un modèle d'image ultra-rapide sur puces chinoises

Pourquoi ça compte pour toi

SenseTime, autrefois leader en vision par ordinateur, rattrape son retard face à DeepSeek en ouvrant son code. Pour toi créateur ou entrepreneur : c'est un modèle gratuit et performant qui tourne sur ton PC ou téléphone, idéal pour les applications robotiques ou de vision. Et c'est une leçon de stratégie : face aux sanctions américaines, le code ouvert devient une arme de survie.

Ce qu'il faut retenir

  • 1.SenseNova-U1 traite les images nativement (sans conversion texte) → plus rapide, moins de puissance
  • 2.Tourne sur des puces chinoises ET sur PC/smartphones, contournant les sanctions américaines
  • 3.Publié gratuitement sur Hugging Face/GitHub : une réponse en code ouvert pour itérer plus vite

Pourquoi direct, c'est mieux

La plupart des modèles de vision transforment d'abord l'image en description texte, puis la traitent. SenseTime a inversé le truc : le modèle « lit » l'image en natif. Résultat ? Moins d'étapes, moins de calcul, plus vite.

Dahua Lin, cofondateur et chercheur en chef, l'explique simplement : « Le processus de raisonnement du modèle n'est plus limité au texte. Il peut aussi raisonner avec des images. »

L'arme contre les sanctions

Depuis 2023, les États-Unis bloquent l'accès des entreprises chinoises aux meilleurs chips d'IA (ceux de Nvidia). Réaction de SenseTime : optimiser pour les puces locales. Dès le jour du lancement, 10 constructeurs chinois (Cambricon, Biren) ont annoncé la compatibilité.

Lin ne cache pas la réalité : « On aura toujours besoin des meilleurs chips pour accélérer l'itération », mais U1 fonctionne sans.

La vraie stratégie : le code ouvert

SenseTime a longtemps dominé la reconnaissance faciale. Puis ChatGPT débarque, et des startups comme DeepSeek explosent. La décision ? Passer au code ouvert.

Pourquoi ? Parce que les chercheurs du monde entier font des retours, ce qui accélère l'amélioration du modèle. Et c'est un atout pour une entreprise sanctionnée : collaborer avec des laboratoires internationaux sans friction politique.

Cas d'usage robotique

C'est là qu'U1 brille. Imagine un robot confronté au chaos d'une pièce : « Comment gérer ce désordre ? Quel bouton appuyer sur cette machine ? » Traiter ces images directement = réactions plus rapides, moins d'erreurs.

SenseTime travaille déjà avec ACE Robotics (fondée par un cofondateur) et développe des modèles de géospatialisation.

Le défi : la qualité

Dans les benchmarks, U1 égale les modèles fermés chinois (Alibaba Qwen, ByteDance Seedream) mais reste en retrait face à GPT-Image-2.0 (sorti une semaine avant). Son avantage : la vitesse et l'efficacité, pas la perfection.

Adina Yakefu (Hugging Face) valide : « L'architecture NEO-Unify est ambitieuse, avec des défis pratiques. Le fait qu'ils l'aient ouverte permet à la communauté de vraiment la tester. »

Source

📊 Cours en bourse

Newsletter quotidienne

3 minutes d'IA dans ta boîte mail, chaque matin.

Rejoins les francophones qui comprennent, essaient et progressent avec l'IA. Un email court, utile, sans spam. Désabonnement en 1 clic.

Explorer les thèmes de cet article :