SSI, la nouvelle start-up du co-fondateur d’OpenAI axée sur la sécurité, lève 1 Md$
Safe Superintelligence va se concentrer sur la constitution d'une petite équipe de chercheurs et d'ingénieurs de confiance, répartie entre Palo Alto, en Californie, et Tel Aviv
SAN FRANCISCO/NEW YORK – Safe Superintelligence (SSI), nouvellement co-fondée par Ilya Sutskever, ancien directeur scientifique d’OpenAI, a levé un milliard de dollars en liquidités pour aider à développer des systèmes d’intelligence artificielle (IA) sûrs qui dépassent de loin les capacités humaines, ont déclaré des cadres de l’entreprise à Reuters.
SSI, qui compte actuellement dix employés, prévoit d’utiliser les fonds pour acquérir de la puissance de calcul et recruter les meilleurs talents. Elle se concentrera sur la constitution d’une petite équipe de chercheurs et d’ingénieurs de confiance, répartie entre Palo Alto, en Californie, et Tel Aviv.
La société a refusé de communiquer sa valorisation, mais des sources proches du dossier ont déclaré qu’elle était évaluée à 5 milliards de dollars.
Ce financement montre que certains investisseurs sont toujours prêts à faire des paris démesurés sur des talents exceptionnels axés sur la recherche fondamentale en matière d’IA. Et ce, malgré un désintérêt général pour le financement de ces entreprises qui peuvent être non rentables pendant un certain temps, et qui a poussé plusieurs fondateurs de start-ups à quitter leur poste pour des géants de la technologie.
Parmi les investisseurs figurent des sociétés de capital-risque de premier plan comme Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel. NFDG, un partenariat d’investissement contrôlé par Nat Friedman et le directeur-général de SSI, Daniel Gross, a également participé.
« Il est important pour nous d’être entourés d’investisseurs qui comprennent, respectent et soutiennent notre mission, qui est de faire une ligne droite vers la super-intelligence sûre et en particulier de passer quelques années à faire de la R&D sur notre produit avant de le mettre sur le marché », a déclaré Gross dans une interview.
La sécurité de l’IA, qui consiste à l’empêcher de nuire, est un sujet d’actualité, car on craint que des IA malveillantes n’agissent contre les intérêts de l’humanité, voire ne provoquent l’extinction de celle-ci.
Un projet de loi californien visant à imposer des règles de sécurité aux entreprises a divisé le secteur. Des entreprises comme OpenAI et Google s’y opposent, tandis que Anthropic et xAI d’Elon Musk la soutiennent.
Sutskever, 37 ans, est l’un des spécialistes les plus influents dans le domaine de l’IA. Il a co-fondé SSI en juin avec Gross, qui a précédemment dirigé des initiatives d’IA chez Apple, et Daniel Levy, un ancien chercheur d’OpenAI.
Sutskever est scientifique en chef et Levy est scientifique principal, tandis que Gross est responsable de la puissance de calcul et de la collecte de fonds.
Un nouveau domaine
Sutskever a déclaré que sa nouvelle entreprise avait du sens parce qu’il avait « identifié un domaine un peu différent de celui sur lequel je travaillais ».
L’année dernière, il faisait partie du conseil d’administration de la société mère à but non lucratif d’OpenAI, qui avait voté pour évincer le PDG d’OpenAI, Sam Altman, en raison d’une « rupture de communication ».
Quelques jours plus tard, il était revenu sur sa décision et s’était joint à la quasi-totalité des employés d’OpenAI pour signer une lettre demandant le retour d’Altman et la démission du conseil d’administration. Mais la tournure des événements avait réduit son rôle au sein d’OpenAI. Il a été démis de ses fonctions au sein du conseil d’administration et a quitté l’entreprise en mai.
Après le départ de Sutskever, l’entreprise a démantelé son équipe « Superalignment », qui veillait à ce que l’IA reste alignée sur les valeurs humaines afin de se préparer au jour où l’IA dépassera l’intelligence humaine.
Contrairement à la structure d’entreprise peu orthodoxe d’OpenAI, mise en place pour des raisons de sécurité de l’IA mais qui a rendu possible l’éviction d’Altman, SSI a une structure normale à but lucratif.
SSI s’efforce actuellement de recruter des personnes qui s’intègrent à sa culture.
Gross a déclaré que l’entreprise passait des heures à vérifier si les candidats avaient « un bon caractère » et qu’elle recherchait des personnes dotées de capacités extraordinaires plutôt que de mettre l’accent sur les diplômes et l’expérience dans le domaine.
« Ce qui nous réjouit, c’est de trouver des personnes intéressées par le travail, qui ne s’intéressent pas à la scène, au battage médiatique », a-t-il ajouté.
SSI prévoit de s’associer à des fournisseurs d’informatique en cloud et à des fabricants de puces pour financer ses besoins en puissance de calcul, mais n’a pas encore choisi les entreprises avec lesquelles elle travaillera. Les start-ups spécialisées dans l’IA travaillent souvent avec des entreprises telles que Microsoft et Nvidia pour répondre à leurs besoins en matière d’infrastructure.
Sutskever a été l’un des premiers à défendre l’idée de la mise à l’échelle, selon laquelle les modèles d’IA gagneraient en performance si l’on disposait d’une grande quantité de puissance de calcul. L’idée et son exécution ont déclenché une vague d’investissements dans les puces, les centres de données et l’énergie, jetant les bases des progrès de l’IA générative comme ChatGPT.
Sutskever a déclaré qu’il aborderait la question de la mise à l’échelle d’une manière différente de celle de son ancien employeur, sans toutefois fournir de détails.
« Tout le monde se contente de parler d’hypothèse de mise à l’échelle. Tout le monde néglige de se demander ce que l’on met à l’échelle », a-t-il noté.
« Certaines personnes peuvent travailler de très longues heures et emprunter le même chemin plus rapidement. Ce n’est pas vraiment notre style. Mais si vous faites quelque chose de différent, alors il vous sera possible de faire quelque chose de spécial. »