Legit Security lève 40 M de $ pour atténuer les menaces contre les applis d’IA
L'investissement mené par la société de capital-risque américaine CRV aidera la startup israélienne à augmenter ses ventes, sa R&D et à faire face aux cyber-menaces
Sharon Wrobel est journaliste spécialisée dans les technologies pour le Times of Israel.
La startup israélienne de cyber-sécurité Legit Security a déclaré mercredi avoir obtenu 40 millions de dollars de la part d’investisseurs pour aider les entreprises à protéger leurs applications basées sur l’intelligence artificielle générative contre les attaques de menaces malveillantes et les failles de sécurité.
Le cycle de financement de série B a été mené par la société américaine de capital-risque CRV, avec la participation d’investisseurs existants : le fonds de capital-risque israélien Cyberstarts, la société d’investissement internationale Bessemer Venture Partners et la société de capital-risque de la Silicon Valley TCV. Ces nouveaux capitaux portent à 77 millions de dollars le total des fonds levés à ce jour par Legit Security.
Au cours des derniers mois, une multitude de jeunes entreprises de cyber-sécurité fondées par des Israéliens et cherchant à développer des solutions pour répondre aux besoins croissants des entreprises en matière de sécurité ont réussi à lever des fonds, car ce secteur suscite l’intérêt des investisseurs privés malgré une pénurie mondiale de financement dans le domaine de la technologie.
Les entreprises s’appuient de plus en plus sur des logiciels pour mener leurs activités et la transformation numérique déplace les centres de données vers le cloud. Le rythme rapide des changements a également ouvert davantage de canaux d’attaque non protégés que les cyber-criminels ciblent.
Basée à Palo Alto, en Californie, Legit Security a été fondée en septembre 2020 par le PDG Roni Fuchs, le directeur technique Liav Caspi et le vice-président de la R&D Lior Barak, diplômés de l’unité 8200 de l’armée de défense israélienne. La startup a développé une plateforme de sécurité qui, selon elle, aide les entreprises et les organisations à protéger les chaînes d’approvisionnement en logiciels et les applications contre les attaques de menaces en découvrant et en atténuant les vulnérabilités depuis le stade du développement du code jusqu’au déploiement dans le cloud. Parmi les clients de Legit Security qui utilisent la plateforme figurent Google, NYSE, Kraft Heinz, Takeda Pharmaceuticals et d’autres entreprises du Fortune 500.
La chaîne d’approvisionnement en logiciels est l’écosystème de systèmes, d’infrastructures, de processus et de personnes impliqués dans le développement de logiciels. La plateforme de Legit Security analyse les pipelines de développement de logiciels à la recherche de lacunes et de fuites, ainsi que l’infrastructure et les systèmes de développement au sein de ces pipelines. Selon un rapport de Gartner, d’ici 2025, environ 45 % des entreprises et des organisations du monde entier auront subi des attaques sur leurs chaînes d’approvisionnement en logiciels, soit trois fois plus qu’en 2021.
La startup a déclaré qu’elle utiliserait les fonds de la série B pour développer « les ventes, le marketing et la R&D, ainsi que pour répondre à la menace émergente de l’intelligence artificielle et des grands modèles de langage (LLM) dans le développement de nouvelles applications ».
Les équipes de développement de logiciels exploitent de plus en plus le code généré par l’intelligence artificielle (IA) et intègrent les LLM dans leurs applications, « mais ces technologies d’IA introduisent également une nouvelle catégorie de menaces de sécurité en pleine expansion », a déclaré Legit Security dans un communiqué.
« Nous avons fondé Legit Security avec la mission de sécuriser les logiciels du monde entier avec une plate-forme qui gère en permanence la sécurité des applications, du code au cloud », a déclaré Fuchs. « Avec cet investissement, notre mission gagne en traction et en vitesse, y compris de nouvelles capacités pour étendre la visibilité, la sécurité et la gouvernance au code généré par l’IA et aux grands modèles de langage (LLM) intégrés dans les applications. »
Cette décision intervient alors que de plus en plus de développeurs de logiciels travaillant dans des environnements cloud utilisent des assistants de code basés sur l’IA, tels que GitHub Copilot ou Tabnine, ce qui ouvre une série de nouveaux risques pour la confidentialité des données et la protection des données sensibles.
En conséquence, de grandes entreprises technologiques telles qu’Apple et Samsung empêcheraient leurs employés d’utiliser des outils d’IA générative tels que ChatGPT d’OpenAI et des assistants de code basés sur l’IA afin d’éviter les fuites d’informations privées.