Mistral AI, fervent défenseur de l’open source, s’est rapidement imposé comme un acteur français et européen incontournable de l’IA générative. En mai dernier, un mois seulement après sa création, la société annonçait une levée de fonds de 105 millions d’euros, l’une des plus importantes en France pour une start-up d’IA. Selon les sources de Bloomberg, elle finaliserait un nouveau tour de table de 450 millions d’euros, ce qui la valoriserait à près de 2 milliards de dollars et la ferait passer au statut de licorne en un temps record.
L’expérience des trois cofondateurs de la start-up a vite inspiré la confiance des investisseurs : Arthur Mensch, le CEO, expert en deep learning, a travaillé un peu plus de 2 ans et demi au sein de DeepMind, le laboratoire d’IA de Google tandis que Timothée Lacroix, plus de huit ans chercheur chez Meta, et Guillaume Lample qui avait rejoint Facebook AI Research (FAIR) en 2016, sont deux des chercheurs de l’équipe à l’origine de LLama (Large Language Model Meta AI), une collection de modèles de langage de fondation publiée en février dernier.
Selon les sources de Bloomberg, sur les 450 millions d’euros attendus, 325 proviendraient en capitaux propres d’investisseurs dirigés par le fonds de capital-risque Andreessen Horowitz, ce dernier participant lui-même à hauteur de 200 millions d’euros. Nvidia et l’éditeur de logiciel Salesforce, via son fonds dédié à l’IA générative, apporteraient 120 millions d’euros sous forme d’obligations convertibles.
Les trois cofondateurs vendraient chacun pour un million de dollars d’actions, Cedric O, ancien Secrétaire d’État au Numérique, conseiller de la start-up, s’apprêterait lui aussi à vendre des participations partielles, selon l’agence.
Mistral 7B, le premier LLM de Mistral AI
Alors que les premiers LLM de la start-up n’étaient pas attendus avant l’an prochain, Mistral AI avait créé la surprise en septembre dernier, annonçant la mise à disposition open-source de son premier LLM : Mistral 7B. Bien que de petite taille, le modèle de langage surpasse tous les modèles ouverts allant jusqu’à 13B paramètres actuellement disponibles sur tous les benchmarks standards en anglais et en code.
Elle avait commencé à entraîner des modèles significativement plus grands et performants et travaillait à des solutions commerciales d’hébergement et à la spécialisation de modèles pour des cas d’usage professionnels.
Sur son site, la start-up déclare :
“Notre ambition est de devenir le principal partisan de la communauté de l’IA générative ouverte et d’amener des modèles ouverts à des performances de pointe”.
Dans ce but, celle qu’on présente souvent comme la rivale d’Open AI, espère que l’AI Act n’entravera pas l’innovation côté européen alors que des pays comme les USA, le Royaume-Uni, le Japon et la Chine adoptent des réglementations plus souples.
D’ailleurs, Arthur Mensch et Cedric O, qui font tous deux partie du Comité de l’intelligence artificielle générative créé en septembre dernier par Matignon, soutiennent la position de la France qui, à l’instar de l’Allemagne et l’Italie, privilégie la mise en place d’un code de conduite volontaire au lieu d’une réglementation pour les modèles de fondation. La question sera peut-être tranchée aujourd’hui…