Comment l’IA peut préserver, ou annihiler, l’histoire de la Shoah ?
Alors que l'UNESCO met en garde contre le risque de voir l'IA modifier les archives historiques, l'auteur Todd Presner s'interroge sur les préoccupations éthiques liées à la fusion actuelle de la technologie de l'IA et de la recherche en sciences humaines

Amy Kurzweil n’a jamais rencontré son grand-père, survivant de la Shoah, mais cette autrice de mémoires graphiques a récemment dialogué avec lui par l’intermédiaire d’un chatbot basé sur l’intelligence artificielle (IA).
« Pourrais-je apprendre à le connaître ? Pourrais-je même en venir à l’aimer, même si nos vies ne se sont pas rencontrées ? », a déclaré Kurzweil lors d’une conférence TED sur le projet.
En introduisant 600 pages de lettres, de conférences et d’autres écrits de son grand-père dans un ordinateur, Kurzweil a construit un chatbot « sélectif ». En d’autres termes, le robot dynamique a été conçu pour répondre aux questions en utilisant les informations contenues dans les écrits de son grand-père.
« Si nous marions l’IA avec les écrits de mon grand-père, nous pourrions construire un chatbot qui écrirait avec la voix de mon grand-père », a déclaré Kurzweil.
Jeune homme, Fredric Kurzweil a pu fuir l’Autriche parce qu’une Américaine qui assistait à l’un de ses concerts de piano a proposé de parrainer son visa. Après être devenu un éminent professeur de musique aux États-Unis, Fredric Kurzweil est mort en 1970, à l’âge de 57 ans.
« Je voulais parler à mon grand-père parce qu’il était, comme moi, un artiste », a déclaré Kurzweil, la fille du célèbre futurologue Ray Kurzweil.
Kurzweil a publié deux mémoires graphiques sur sa famille, dont un récit sur sa grand-mère pendant la Shoah et un projet dans lequel elle a collaboré avec sa mère.
« Je pense que l’IA a un rôle particulier à jouer dans la mission de la mémoire », a indiqué Kurzweil. « L’IA peut aider à prévenir l’anéantissement en animant les héritages de nos familles et de nos cultures », a-t-elle dit aux participants de la conférence TED.
« Les gens ne disparaissent pas simplement lorsqu’ils meurent. L’IA bouleverse notre conception du temps et de l’espace. Elle peut remixer et étendre nos identités », a déclaré Kurzweil. Comme pour la caricature, l’IA peut « nous aider à apprécier l’immensité de l’humanité, si nous la laissons faire », a-t-elle ajouté.
Alors que l’IA repousse les limites de la mémoire de la Shoah, des forces malveillantes déploient la même technologie pour éroder la mémoire du génocide au cours duquel six millions de Juifs ont été assassinés pendant la Seconde Guerre mondiale.
En juin, l’UNESCO a publié un document intitulé « L’IA et l’Holocauste : Réécrire l’histoire ? L’impact de l’intelligence artificielle sur la compréhension de l’Holocauste ». Dans ce document, les chercheurs ont identifié plusieurs technologies d’IA problématiques qui posent un risque pour l’histoire de la Shoah.

« Les menaces associées à l’IA sur la sauvegarde des archives de l’Holocauste sont multiples, y compris le potentiel de manipulation par des acteurs malveillants, l’introduction d’erreurs ou la diffusion d’informations biaisées, et l’érosion progressive de la confiance du public dans les archives authentiques », indique le document de l’UNESCO.
Dans son récent ouvrage intitulé « L’éthique de l’algorithme : les humanités numériques et la mémoire de l’Holocauste », l’auteur Todd Presner appelle à la création de meilleures pratiques pour répondre à certaines des menaces identifiées par l’UNESCO.
« Je ne suis pas pessimiste ou alarmiste en ce qui concerne ces nouvelles technologies, mais je pense que les humanistes – y compris les historiens, les éthiciens et les spécialistes de la culture et de la société – doivent contribuer à les façonner et à façonner la manière dont elles sont utilisées pour la recherche et l’éducation », a déclaré Presner au Times of Israel.
Professeur de langues européennes à l’Université de Californie Los Angeles, Presner explique que l’IA se mêle aux méthodes de recherche traditionnelles pour former une nouvelle discipline appelée « humanités numériques ». Son livre permet de visualiser la fusion de l’IA et de la recherche sur l’Holocauste. Par exemple, un ensemble de visualisations basées sur des données illustre une analyse des tons vocaux et des cadences couramment utilisés par les survivants dans les témoignages enregistrés.
« L’éthique de l’algorithme place l’homme au centre du problème et de la solution. En tant que créateurs des codes – ou algorithmes – qui sous-tendent l’IA, il appartient aux humains d’intégrer des considérations éthiques dans les nouvelles technologies », a déclaré Presner.

« Comment nous recevons les témoignages, de quelle manière ils sont médiatisés, si nous les comprenons, comment nous y accédons et les interprétons, si nous les comparons, quels outils nous utilisons pour les analyser, comment les technologies et les personnes les génèrent et les transforment, comment nous les valorisons et leur donnons un sens – ce sont tous des sujets qui rapprochent les questions de méthodes des questions d’éthique », écrit Presner.
Rédigé à l’intention d’un public universitaire mais accessible, « L’éthique de l’algorithme » contient des dizaines d’images en couleurs illustrant les recherches menées par Presner et ses étudiants de troisième cycle. Chaque illustration comporte un QR code permettant aux lecteurs d’examiner des ensembles de données ou d’en savoir plus sur les expériences basées sur l’IA.
Presner partage clairement l’enthousiasme de Kurzweil pour le déploiement de l’IA afin d’approfondir la mémoire de la Shoah. Dans le même temps, il souhaite que les créateurs d’algorithmes et autres praticiens du numérique établissent des lignes directrices éthiques, comme le conseille l’UNESCO.
« L’IA, lorsqu’elle est utilisée de manière responsable, a le potentiel d’approfondir la compréhension, de créer de nouvelles connaissances et de nous permettre de traiter des données à une échelle jusqu’alors inimaginable. Pour moi, la question reste celle de l’authenticité, de l’exactitude et de la provenance numérique, c’est-à-dire de l’origine des données et des algorithmes », a déclaré Presner.