Tesla met fin au programme Dojo et réalloue ses moyens vers des puces d’inférence de prochaine génération destinées au déploiement en temps réel dans les véhicules et la robotique. Ce recentrage, décidé à l’été 2025, vise à accélérer l’arrivée de plateformes silicium internes (souvent évoquées sous les noms AI5/AI6) capables d’exécuter des réseaux de perception et de décision plus lourds, avec une meilleure efficacité énergétique et un coût par véhicule réduit.
Ce qui change concrètement
L’équipe Dojo, dédiée à la pile d’entraînement propriétaire (puce D1, interconnexions, baies « exapod », logiciels bas niveau), est dissoute. Les ingénieurs sont en grande partie réaffectés à des chantiers d’inférence et d’intégration véhicule/robot. Une partie des talents-clés a quitté l’entreprise, dont des profils seniors impliqués depuis l’origine du projet. L’entraînement des modèles s’appuiera davantage sur des capacités externes et sur l’écosystème GPU/accélérateurs du marché, tandis que l’effort interne se concentre sur l’optimisation du calcul embarqué.
Pourquoi ce pivot maintenant
Construire un supercalculateur d’entraînement entièrement propriétaire est un pari à très fort capex, avec une cadence d’itération contrainte par la complexité de la chaîne (silicium, paquetage, réseau, refroidissement, compilation). En parallèle, le rythme d’innovation des GPU du marché et l’industrialisation des clouds IA offrent des performances et un time-to-train difficiles à égaler. Tesla choisit donc d’allouer ses ressources à l’endroit où l’avantage compétitif est le plus différenciant pour l’utilisateur final : la latence, la robustesse et le coût de l’inférence « at the edge » dans la voiture et sur le robot.
Calendrier et trajectoire attendus
La bascule est intervenue courant août 2025. À court terme, l’entreprise privilégie une montée en puissance des générations de puces embarquées, avec un focus sur la bande passante mémoire, l’IO caméra, et la résilience thermique en environnement automobile. L’objectif est de soutenir des réseaux plus lourds (perception multi-caméras, planification hiérarchique, fusion vision/langage pour la robotique) sans exploser l’enveloppe énergétique ni le BOM véhicule.
Comparatif stratégique : entraînement propriétaire vs. écosystème marché
Critère | Poursuite Dojo propriétaire | Appui sur écosystème GPU + puces embarquées maison |
---|---|---|
Capex & risque d’exécution | Très élevé (silicium + datacenter + stack logicielle) | Réduit côté training (capex mutualisé), efforts concentrés sur l’edge |
Time-to-train / time-to-market | Dépend des itérations silicium internes | Bénéficie du rythme GPU du marché; itération rapide sur l’edge |
Différenciation produit | Indirecte, via promesse de coûts d’entraînement | Directe, via latence, fiabilité et coût embarqué |
Flexibilité logicielle | Toolchain spécifique à maintenir | Interop cloud standard + toolchain edge propriétaire |
Échelle et maintenance | À la charge de Tesla | Partagée avec les hyperscalers; maintenance edge internalisée |
Conséquences techniques côté véhicule et robot
Le recentrage place l’inférence temps réel au cœur du produit. Les objectifs récurrents incluent : (1) multiplication des opérations par watt, (2) réduction des latences pipeline (ingestion caméras → perception → planification → action), (3) maintien d’un budget thermique compatible avec l’automobile, (4) intégration étroite avec le BMS/ADAS et les bus véhicule, (5) sécurisation fonctionnelle (ISO 26262) et robustesse au vieillissement. La consolidation des toolchains (compilateurs graphes, kernels optimisés, ordonnancement) permet de réutiliser l’actif logiciel de Dojo côté exécution, même si l’entraînement n’est plus internalisé.
Impacts organisationnels et talents
La fin de Dojo s’accompagne d’un rebalancement des équipes vers l’edge : profils hardware (design, packaging, mémoire), runtime et compilation, optimisation des réseaux et du pre/post-processing. Les départs de membres historiques imposent un effort de rétention et recrutement ciblé pour préserver la cadence d’itération. La proximité entre équipes véhicule, robot et IA devrait s’intensifier, avec des cycles plus courts entre R&D silicium et validation terrain.
Lecture financière et industrielle
À court terme, l’arrêt de l’effort Dojo réduit un programme très capitalistique et potentiellement redondant avec l’offre du marché. Les fonds et le temps libérés se réinjectent dans des livrables plus proches de l’utilisateur (puces embarquées, intégration logicielle, fiabilité). Le signal envoyé est celui d’une ambition IA intacte, mais d’une priorisation pragmatique : maîtriser la pile edge où se joue l’expérience, et s’appuyer sur des partenaires pour ce qui bénéficie d’économies d’échelle externes (training).
Avantages, compromis et prérequis
- Avantages : accélération produit, réduction du risque d’exécution, différenciation perçue par l’utilisateur (latence, robustesse, coût).
- Compromis : dépendance accrue aux plateformes d’entraînement externes, moindre contrôle fin sur le coût par heure de training.
- Pré-requis : garantir la continuité des datasets et pipelines d’entraînement, verrouiller des engagements de capacité avec les fournisseurs de calcul, et industrialiser rapidement la prochaine génération de puces edge.
Enjeux pour la feuille de route IA
La réussite du pivot se mesurera à la capacité à livrer une plateforme embarquée « plus rapide, plus froide, moins chère » sans sacrifier la qualité des modèles. Avec une R&D concentrée sur l’edge, Tesla cherche à transformer un pari d’infrastructure en avantage produit tangible : qualité de conduite assistée/automatisée, fiabilité des comportements, et autonomie plus dense pour la robotique. Si l’intégration silicium–logiciel atteint ses objectifs, le pari de l’abandon de Dojo pourrait se traduire par une exécution plus rapide et une expérience utilisateur sensiblement meilleure.