Deux mois et demi après sa création, Safe Superintelligence Inc (SSI), la start-up cofondée par Ilya Sutskever, Daniel Gross et Daniel Levy, a finalisé un tour de table d’1 milliard de dollars. Rapportée par Reuters, cette levée de fonds, menée par des investisseurs de premier plan tels qu’Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel, reflète la confiance accordée à SSI. La start-up a pris le parti de ne pas commercialiser de produit avant d’avoir la certitude que ses systèmes d’IA ne présentent aucun risque pour l’humanité.
Les trois cofondateurs ont déclaré en juin dernier lors du lancement de SSI :
“La superintelligence est à portée de main. La construction d’une superintelligence sûre (SSI) est le problème technique le plus important de notre époque. Nous avons lancé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre. Il s’appelle Safe Superintelligence Inc. SSI est notre mission, notre nom et l’ensemble de notre feuille de route produit, car c’est notre seul objectif. Notre équipe, nos investisseurs et notre modèle commercial sont tous alignés pour réaliser SSI”.
Ilya Sutskever avait démissionné le mois précédant le lancement de SSI de son poste de scientifique en chef chez OpenAI, dont il était l’un des cofondateurs, et où il codirigeait avec Jan Leike, l’équipe de superalignement mise en place par la start-up en juillet 2023 pour minimiser les risques potentiels d’une IA qui surpasserait l’intelligence humaine.
L’un comme l’autre considèrent que développer une IA qui serait capable de s’adapter et d’exceller dans un large éventail de domaines, de manière similaire, voire supérieure, à l’intelligence humaine, autrement dit une superintelligence ou IAG, est envisageable avant la fin de cette décennie mais, pour eux, des mesures de sécurité sont nécessaires pour garantir que les systèmes d’IA restent sûrs et alignés avec les valeurs humaines.
Ils alertaient :
“La superintelligence sera la technologie la plus percutante que l’humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants du monde. Mais le vaste pouvoir de la superintelligence pourrait aussi être très dangereux et pourrait conduire à la perte de pouvoir de l’humanité ou même à l’extinction humaine”.
Donner la priorité à la sécurité
SSI, qui compte aujourd’hui une dizaine d’employés, concentre tous ses efforts sur le développement d’une IAG sécurisée, “et rien d’autre”. Les fonds levés seront utilisés pour acquérir de la puissance de calcul, recruter les meilleurs talents, des ingénieurs et chercheurs qui seront basés à Palo Alto et Tel Aviv, “où nous avons des racines profondes et la capacité de recruter les meilleurs talents techniques”, précisait l’équipe fondatrice lors du lancement de SSI.
La start-up, serait aujourd’hui valorisée à 5 milliards de dollars selon les sources de Reuters. Daniel Gross, interviewé par ce dernier, a précisé :
“Il est important pour nous d’être entourés d’investisseurs qui comprennent, respectent et soutiennent notre mission, qui est de viser directement une superintelligence sûre et en particulier de passer quelques années à faire de la R&D sur notre produit avant de le commercialiser”.