16 M$ de financement pour une start-up israélienne de détection d’images truquées
Clarity aide à détecter les deepfakes créés par des modèles d''intelligence artificielle générative pendant la guerre entre Israël et le groupe terroriste palestinien du Hamas
Sharon Wrobel est journaliste spécialisée dans les technologies pour le Times of Israel.
La sophistication de la technologie « deepfake« , qui s’appuie sur des modèles d’intelligence artificielle (IA) avancés, rend difficile la distinction entre un contenu en ligne réel et un contenu manipulé ou fabriqué. La création de médias de synthèse est utilisée de manière abusive pour diffuser de la désinformation et de la propagande, notamment dans le cadre de la guerre en cours avec le groupe terroriste palestinien du Hamas.
Clarity, une start-up israélienne de cybersécurité par l’IA qui a développé un logiciel pour détecter et protéger contre les deepfakes – ou hyper-trucage – , a déclaré jeudi qu’elle avait levé un fonds d’amorçage de 16 millions de dollars. Ce premier tour de financement permettra à la start-up de doubler le nombre de ses employés et d’étendre ses opérations de recherche et de développement.
Le tour de table a été mené par Walden Catalyst Ventures et Bessemer Venture Partners. Parmi les investisseurs participant au financement figurent Secret Chord Ventures, Ascend Ventures, Fusion VC et Flying Fish Partners. Un groupe de 70 investisseurs providentiels s’est également joint à eux, dont Udi Mokady, président de CyberArk, et le professeur Larry Diamond de l’Université de Stanford.
Fondée fin 2022 par le PDG Michael Matias, la directrice technique Natalie Fridman et le responsable de la stratégie Gil Avriel, avec un siège de R&D à Tel Aviv, Clarity prévoyait de concentrer une grande partie de son attention sur le développement de logiciels pour la détection des deepfakes souvent utilisés pour diffuser de la désinformation afin d’influencer l’opinion publique lors des campagnes électorales, et d’aider ainsi à atténuer la menace qu’ils représentent pour les démocraties. La start-up compte 15 salariés.
Avec l’éclatement de la guerre au lendemain de l’assaut du 7 octobre, lorsque les terroristes du Hamas se sont déchaînés sur le sud d’Israël, tuant près de 1 200 personnes et en prenant 253 otages, les chercheurs en IA de Clarity ont relevé le défi d’aider à vérifier l’authenticité des séquences de guerre, alors qu’une avalanche de vidéos et d’images circule sur les plateformes de réseaux sociaux, certaines tournées par des terroristes du Hamas, d’autres par des résidents de Gaza, et d’autres encore créées par des outils d’IA générative (IAg) à des fins de manipulation et de tromperie.
La technologie en instance de brevet de la start-up détecte et analyse les manipulations de l’IAg dans les vidéos, les images et l’audio, et authentifie les médias à l’aide de diverses techniques telles que la criminalistique des images, l’analyse des métadonnées et les algorithmes basés sur l’IA. Depuis le début de la guerre, Clarity travaille avec le gouvernement israélien et s’est récemment associée à une entreprise de logiciels vidéo fondée par des Israéliens, Kaltura, pour vérifier et authentifier des séquences vidéo sensibles et des témoignages d’otages de l’assaut terroriste du 7 octobre.
« Les deepfakes représentent une menace qui n’a pas été prise en compte dans les récents conflits d’Israël avec les terroristes du Hamas, car l’IAg peut créer des réalités qui n’ont jamais existé », a déclaré Matias, co-fondateur de Clarity et officier de Tsahal dans l’unité d’élite 8 200 du Corps de Collecte de Renseignements, au Times of Israel. « La guerre en cours a clairement montré que la guerre transcende l’espace numérique et exige que les gouvernements tirent parti de la technologie et travaillent avec des start-ups, où que ce soit pour l’utilisation de drones, la reconnaissance faciale ou la détection de deepfakes. »
La technologie des deepfakes utilise l’apprentissage profond, une forme d’IA impliquant l’apprentissage automatique, pour créer des rendus étonnamment réalistes de personnes réelles et de leurs voix. L’explosion récente des modèles d’IAg et des chatbots tels que ChatGPT aide les mauvais acteurs à générer des deepfakes rapidement, en utilisant des outils sophistiqués largement accessibles et gratuits.
« Nos vies numériques sont attaquées par des représentations d’une précision choquante de personnes disant des choses qu’elles n’ont jamais dites et faisant des choses qu’elles n’ont jamais faites ; nous ne sommes qu’au début de l’invasion de la tromperie », a déclaré Michael Matias, qui est le fils de Yossi Matias, directeur-général du centre de recherche et de développement de Google en Israël. « Nous voulons créer une couche de confiance pour les médias et les contenus numériques. »