
Chez AMI Labs de Yann Le Cun, l’ex patron de l’intelligence artificielle chez Meta, l’ambition est vaste : porter l’intelligence de nos terminaux vers le monde physique avec une approche radicalement différente de celle des LLM.
Voici 7 choses à savoir sur AMI Labs, la startup française qui rêve de réaliser le plus beau contre-pied de l’histoire de la Tech face aux géants actuels de l’IA.
1- Les moyens de sa politique
Ami, pour Advanced Machine Intelligence a à ce stade levé 1,03 milliards de dollars (soit 890 millions d’Euros). La startup qui a ouvert des bureaux à Paris, New York, Montréal et Singapour est déjà valorisée 3,5 milliards d’euros.
2- Une équipe de choc
Yann Le Cun s’est également adjoint les services d’Alexandre Lebrun (fondateur de Wit.ai et Nabla) qui est CEO d’Ami Labs, Michael Rabbat (ex-Meta) qui dirige la recherche sur les modèles du monde. Saining Xie, l’inventeur des Diffusion Transformers (DiT) est CSO (Chief Scientific Officer) et Laurent Solly, ex VP Europe du Sud de Meta est COO (Chief Operating Officer) de la structure.
3- Des investisseurs réputés
Plusieurs grands noms de la Tech internationale et française soutiennent la vision de Yann le Cun : Jeff Bezos à travers Bezos Expeditions, NVIDIA, Samsung, Dassault, Publicis, CMA CGM, Xavier Niel, Artemis et la BPI.
À ceux-là s’ajoutent les Family Office d’ Eric Schmidt, Mark Cuban et Tim Berners-Lee (l’inventeur du Web) sans oublier Temasek (le fonds souverain de Singapour) et le fonds Franco-Chinois Cathay Innovation.
4- Une conviction les LLM sont une impasse
Pour Yann Le Cun, les modèles actuels de langages tels que déployés chez OpenAI, Anthropic ou Google ne comprennent pas et ne comprendront pas le monde physique. Il faut une nouvelle approche.
5- Une vision les : World Models
Les World Models (modèles de monde) développés par Yann Le Cun ont pour but via la vidéo mais aussi les capteurs et les simulations de comprendre intimement les fonctionnement du monde physique. Par exemple : un verre qui tombe se brise c’est ce comprend statistiquement un LMM par occurrence de mots. Un World Model comprend instantanément les conséquences d’une action sans avoir besoin de giga octets de corpus de textes.
6- Et qu’est-ce que cela change ?
Alors que les LLM ne comprennent pas (ils répondent mot à mot), les World Models peuvent littéralement raisonner. À travers l’architecture JEPA (Joint-Embedding Predictive Architecture) d’AMI labs, l’IA peut fixer un objectif et déduire la séquence d’actions nécessaire pour l’atteindre, au lieu de simplement prédire le mot suivant.
En bref, AMI Labs veut donner des mains et un instinct à l’intelligence artificielle ouvrant le champ à tout un champ de robotique plus sophistiqué (un robot qui comprendrait instantanément le concept de “ranger la cuisine”). Pour Le Cun, qui parie également sur une consommation d’énergie plus sobre, c’est la seule manière de parvenir un jour à l’AGI (Average General Intelligence).
7- Quelles applications concrètes à ce stade ?
Le but est de faire passer le modèle de l’intelligence d’un chat à celui d’un enfant de quatre ans. Pour info, précise Yann Le Cun, un enfant de 4 ans a déjà passé 16 000 heures à observer le monde. Le flux d’informations transitant par son nerf optique représente environ 10 puissance 15 octets (un quadrillion de bytes). Et ça, c’est 50 fois plus de données que ce sur quoi les plus grands modèles de langage (LLM) sont entraînés
Pour l’instant AMI Labs est en phase de R&D pure de son modèle JEPA. La startup a également noué un partenariat avec les lunettes Meta et Ray Ban pour intégrer son modèle dans les lunettes connectées. Mais si les World Models tiennent leur promesse, ils pourraient ouvrir le champ à des innovations inédites dans la conduite autonome basée sur un modèle mental de l’espace (et non des images statistiques de millions d’accidents), le diagnostic médical multi-modal et aussi la robotique industrielle.
Crédit Photo AMI Labs
