Des mariages de raison dans l'intelligence artificielle
Des mariages d'amour et de raison dans l'intelligence artificielle dont l'Europe est exclue: OpenAI + Microsoft, Anthropic + Google, Anthropic + Amazon....
dans des deals qui vont au-delà de l'argent et des cours de bourse. Voici une tentative de décryptage de ce qui se trame sous yeux et qui impacte l’avenir de l’IA.
En février 2023, Facebook, en open sourçant des LLMs open source rivalisant réellement avec GPT 3.5, avait ouvert un espace pour les acteurs européens n’ayant pas les moyens techniques et financiers d’OpenAI, de Deep Mind ou d’Anthropic, pour créer ex nihilo des LLM.
En juin 2023, le français Mistral (fondé par des anciens de Facebook et DeepMind) réalisait probablement la plus importante de levée de fond, en seed, de l’histoire des start-ups françaises.
Cela ré-ouvrait le jeu en offrant de véritables opportunités pour l’industrie européenne de l’IA.
Mais, dans les mois qui ont suivi, on a vu :
- Microsoft creuser l’écart avec Google, dont on disait que s’il n’avait pas lancé ses chatbots plus tôt, c’est par choix. La réalité, c’est qu’OpenAI a des LLMs mais aussi des couches conversationnelles beaucoup plus performantes que celles développés en internes par le service IA de Google ou de sa filiale Deepmind (qu’il a d’ailleurs fusionnés depuis)
- Amazon investir $1,25 milliard (+ $2,75 milliards en option) dans Anthropic, qui se révèle être le véritable challenger d’OpenAI bien avant Google
- Google investir $500 millions (+$1,5 milliard supplémentaires ultérieurement) toujours dans Anthropic.
Mais derrière, ces deals financiers qui révèlent qu’aussi bien Google que Microsoft ne parviennent pas à développer par eux-mêmes des LLMs aussi performants que ceux des deux leaders, se cachent aussi des deals technologiques.
Si Anthropic et OpenAI ont une réelle avance dans le software (les LLMs et les couches conversationnelles, mais aussi sur la génération d’image pour OpenAI avec Dall-e), ces deux sociétés ont besoin d’un accès aux puissants clouds de Google, d’Amazon ou de Microsoft, pour faire tourner leurs LLMs et chatbots.
Ces alliances me paraissent structurantes surtout si on les met au regard de certaines analyses d’Anthropic, relatées dans un article de Techcrunch d'avril 2023, où l’on peut lire la future génération de LLMs d’Anthropic, sera encore beaucoup plus consommatrice de GPU (le document évoque le recours à des clusters de plusieurs dizaines de milliers de GPU pour faire tourner ces nouveaux LLM reposant sur la "constitutionnal AI" d’Anthropic). Dans un pitch deck, il prévoyait que les entreprises qui auront développé ces models de nouvelle génération (s’appuyant, donc sur des forêts de GPU), d’ici 2025/2026 seront irrattrapables.
Ce ne sont que des éléments, non objectifs, issus d’un pitch deck à l’intention d’investisseurs, mais rend tout de même compte du fait que si la France veut se positionner, elle devra traiter à la fois le sujet du soft (les LLMs) et du hardware.