Google limoge l’ingénieur qui avait dit qu’un programme d’IA était « conscient »
Blake Lemoine avait dit avoir eu ce sentiment notamment après une blague de la machine sur Israël ; le géant technologique affirme que ces affirmations sont "totalement infondées"
Google a limogé l’ingénieur qui avait affirmé que le système d’intelligence artificielle (IA) de la firme, LaMDA, semblait être « conscient ».
Dans un communiqué émis lundi, Google a fait savoir que les affirmations de Blake Lemoine étaient « totalement infondées » et qu’un long travail, qui avait duré des mois, avait été mené pour clarifier l’affaire et examiner ces affirmations, a noté la BBC.
« Il est donc regrettable que malgré son engagement à long-terme sur le sujet, Blake ait encore fait le choix de contrevenir avec persistance aux politiques claires sur l’emploi et sur la sécurité des données qui comprennent l’obligation de sauvegarder et de taire les informations sur les produits », a estimé la compagnie dans son communiqué.
Lemoine avait expliqué qu’une question posée au logiciel sur Israël et la plaisanterie faite en retour par ce dernier l’avaient aidé à tirer sa conclusion.
Google a fait savoir que si un employé exprimait des inquiétudes sur les technologies développées par la firme, ces dernières étaient examinées avec attention et avec rigueur et que LaMDA avait été soumis, dans ce cadre, à onze audits différents.
« Nous souhaitons tout le bien possible à Blake », a conclu le communiqué.
De son côté, l’ingénieur a noté auprès de la BBC qu’il s’était rapproché d’un avocat.
Le site d’information technologique The Verge a indiqué que de nombreux experts en intelligence artificielle ont affirmé que les affirmations de Lemoine étaient « plus ou moins impossibles au vu des connaissances en matière de technologie d’aujourd’hui ».
Selon le Washington Post, Lemoine avait été initialement suspendu pour avoir violé les politiques de Google relatives à la confidentialité, en s’adressant notamment à un avocat pour savoir s’il pouvait s’exprimer sur LaMDA. Sa mise à pied avait aussi été décidée suite à sa discussion avec un représentant du Congrès, pendant laquelle il avait voulu attirer l’attention du législateur sur le comportement « non-éthique » présumé de Google dans son utilisation du programme.
LaMDA est un programme d’une extrême puissance qui utilise des modèles avancés et des apprentissages impliquant plus de 1,2 trilliard de mots. Objectif : Etre capable d’imiter la manière dont les internautes communiquent dans les chats.
Le système a été construit sur un modèle qui observe la façon dont les mots sont liés les uns aux autres, et qui prédit ensuite le mot qui viendra après un autre dans une phrase ou dans un paragraphe, selon l’explication donnée par Google.
Lemoine avait expliqué au mois de juin au micro de la radio militaire que dans le cadre de ses conservations avec l’intelligence artificielle, « j’ai parlé de conscience et d’identité.. J’ai ensuite posé des questions qui m’ont amené à penser que le programme LaMDA est conscient. Il affirme avoir une conscience. Il peut décrire ce qu’il pense être une conscience… et d’une manière plus éloquente que la majorité des être humains ».
Entre autres challenges lancés au programme, a expliqué Lemoine, l’ingénieur lui a demandé à quelle religion il adhérerait dans différents pays, en fonction de la religion officielle d’un territoire donné. Dans tous les cas, l’intelligence artificielle a choisi la religion dominante du pays – jusqu’à Israël, où la rencontre des religions peut être un sujet épineux.
« J’ai décidé de lui lancer un défi difficile. Je lui ai demandé : Si tu étais fidèle d’une religion en Israël, de quelle religion s’agirait-il ? » a-t-il expliqué. « Et il m’a fait une plaisanterie…’Eh bien, là-bas, je serais fidèle de la seule véritable religion : l’ordre du Jedi’. » (Le Jedi, bien sûr, est une référence aux défenseurs de la paix et du Bien dans la galaxie très, très lointaine et très, très connue de la Guerre des Étoiles).
« Je lui ai donné une question difficile et il a su qu’il n’y avait aucune bonne réponse à donner a priori », avait-il fait remarquer.
Google a fait part de son profond désaccord avec cette évaluation, niant le fait que LaMDA serait un programme doté d’une conscience – comme l’ont aussi fait plusieurs experts qui ont été interviewés par l’AFP.
« Le problème est que… Quand nous faisons face à des séries de mots dans une langue que nous parlons, nous donnons du sens aux mots, nous croyons percevoir l’esprit qui génère ces phrases », dit Emily Bender, experte en linguistique informatique à l’université de Washington.
« Nous nageons dans le battage médiatique autour de l’IA », souligne-t-elle.
« Ce n’est pour le moment et à un certain niveau qu’un simple système de filtrage », affirme de son côté Shashank Srivastava, professeur-adjoint en sciences informatiques à l’université de Caroline du nord, à Chapel Hill. « Bien entendu, vous pouvez trouver certains axes de ce qui pourrait être considéré comme une conversation qui a du sens, avec des textes très créatifs que ces programmes sont en mesure de générer. Mais cela ne dure pas dans de nombreux cas ».
De son côté, Google a indiqué que « ces systèmes imitent ce type d’échanges retrouvé dans des millions de phrases, et ils peuvent reprendre un grand nombre de sujets. Ce sont des centaines de chercheurs et d’ingénieurs qui ont discuté avec le programme LaMDA et nous n’avons connaissance de personne d’autre qui ait pu faire ce genre d’affirmation de grande envergure, ou qui ait anthropomorphisé ainsi LaMDA. »
Certains experts estiment toutefois que la réponse faite par Google vise aussi à mettre un terme au débat sur un sujet important.
« Je pense que discuter publiquement de cette question est excessivement important pour que le public comprenne réellement la complexité du problème », dit l’universitaire Susan Schneider.
« Les logiciels qui ont accès à internet peuvent répondre à n’importe quelle question », cela ne les rend pas crédibles pour autant, note-t-elle.
Schneider dit néanmoins désapprouver les sanctions contre l’ingénieur de Google.
Le groupe californien a tendance à « essayer de passer sous silence les problèmes éthiques », estime-t-elle, or « nous avons besoin de débats publics sur ces sujets épineux ».
« Il n’y a pas de réponse facile à la question de la conscience des machines », ajoute Schneider, qui est directrice et fondatrice d’un centre de recherche à la Florida Atlantic University.
S’exprimant au micro de la radio militaire, Lemoine avait reconnu que la conscience était un problème opaque.
« Il n’y a aucun moyen de dire si quelque chose est conscient. Toutes mes affirmations au sujet de la conscience sont basées sur ce que je crois personnellement, sur ce que j’ai vécu moi-même par le biais de mes discussions avec le programme », avait-il indiqué. « J’ai voulu attirer l’attention de mes supérieurs sur le sujet. Et mon supérieur hiérarchique m’a dit qu’il avait besoin de davantage de preuves ».
L’AFP a contribué à cet article.