SenseTime sort un modèle d'image ultra-rapide sur puces chinoises

Pourquoi ça compte pour toi
SenseTime, autrefois leader en vision par ordinateur, rattrape son retard face à DeepSeek en ouvrant son code. Pour toi créateur ou entrepreneur : c'est un modèle gratuit et performant qui tourne sur ton PC ou téléphone, idéal pour les applications robotiques ou de vision. Et c'est une leçon de stratégie : face aux sanctions américaines, le code ouvert devient une arme de survie.
Ce qu'il faut retenir
- 1.SenseNova-U1 traite les images nativement (sans conversion texte) → plus rapide, moins de puissance
- 2.Tourne sur des puces chinoises ET sur PC/smartphones, contournant les sanctions américaines
- 3.Publié gratuitement sur Hugging Face/GitHub : une réponse en code ouvert pour itérer plus vite
Pourquoi direct, c'est mieux
La plupart des modèles de vision transforment d'abord l'image en description texte, puis la traitent. SenseTime a inversé le truc : le modèle « lit » l'image en natif. Résultat ? Moins d'étapes, moins de calcul, plus vite.
Dahua Lin, cofondateur et chercheur en chef, l'explique simplement : « Le processus de raisonnement du modèle n'est plus limité au texte. Il peut aussi raisonner avec des images. »
L'arme contre les sanctions
Depuis 2023, les États-Unis bloquent l'accès des entreprises chinoises aux meilleurs chips d'IA (ceux de Nvidia). Réaction de SenseTime : optimiser pour les puces locales. Dès le jour du lancement, 10 constructeurs chinois (Cambricon, Biren) ont annoncé la compatibilité.
Lin ne cache pas la réalité : « On aura toujours besoin des meilleurs chips pour accélérer l'itération », mais U1 fonctionne sans.
La vraie stratégie : le code ouvert
SenseTime a longtemps dominé la reconnaissance faciale. Puis ChatGPT débarque, et des startups comme DeepSeek explosent. La décision ? Passer au code ouvert.
Pourquoi ? Parce que les chercheurs du monde entier font des retours, ce qui accélère l'amélioration du modèle. Et c'est un atout pour une entreprise sanctionnée : collaborer avec des laboratoires internationaux sans friction politique.
Cas d'usage robotique
C'est là qu'U1 brille. Imagine un robot confronté au chaos d'une pièce : « Comment gérer ce désordre ? Quel bouton appuyer sur cette machine ? » Traiter ces images directement = réactions plus rapides, moins d'erreurs.
SenseTime travaille déjà avec ACE Robotics (fondée par un cofondateur) et développe des modèles de géospatialisation.
Le défi : la qualité
Dans les benchmarks, U1 égale les modèles fermés chinois (Alibaba Qwen, ByteDance Seedream) mais reste en retrait face à GPT-Image-2.0 (sorti une semaine avant). Son avantage : la vitesse et l'efficacité, pas la perfection.
Adina Yakefu (Hugging Face) valide : « L'architecture NEO-Unify est ambitieuse, avec des défis pratiques. Le fait qu'ils l'aient ouverte permet à la communauté de vraiment la tester. »
Essayer maintenant
Tester SenseNova-U1 sur Hugging Face →Source
📊 Cours en bourse
Pour aller plus loin
Cet article t'a donné envie d'approfondir ? Deux formations Noésis t'attendent :
Explorer les thèmes de cet article :