L’affirmation d’un ingénieur de Google selon laquelle le programme LaMDA est sensible souligne le besoin urgent de démystifier la condition humaine.
PEU DE TEMPS APRÈS avoir découvert Eliza, le programme qui pose des questions aux gens à la manière d’un psychanalyste rogérien, j’ai appris que je pouvais l’exécuter dans mon éditeur de texte préféré, Emacs. Eliza est vraiment un programme simple, avec du texte codé en dur et un contrôle de flux, formation seo une correspondance de motifs et un apprentissage simple et modélisé pour les déclencheurs psychanalytiques – comme le fait que vous ayez récemment mentionné votre mère. Pourtant, même si je savais comment il fonctionnait, je sentais une présence. J’ai rompu définitivement ce sentiment étrange, cependant, lorsqu’il m’est venu à l’esprit de simplement continuer à appuyer sur retour. Le programme a passé en revue quatre invites d’ouverture possibles, et l’engagement a été rompu comme un acteur dans un film établissant un contact visuel à travers le quatrième mur.
La semaine dernière, l’engagement avec LaMDA de Google – et sa prétendue sensibilité – a été rompu par un article de Douglas Hofstadter, légende de l’IA, paru dans Economist, dans lequel il montre, avec son ami David Bender, à quel point la même technologie semble « étonnamment creuse » lorsqu’on lui pose une question absurde comme « Combien de morceaux de son y a-t-il dans un nuage cumulonimbus typique ?
Mais je doute que nous disposions éternellement de ces témoignages évidents d’inhumanité.
À partir de maintenant, l’utilisation sûre de l’intelligence artificielle exige de démystifier la condition humaine. Si nous ne pouvons pas reconnaître et comprendre le fonctionnement de l’IA – si même des ingénieurs experts peuvent se tromper en détectant une agence dans un « perroquet stochastique » – alors nous n’avons aucun moyen de nous protéger contre des produits négligents ou malveillants.
Il s’agit de terminer la révolution darwinienne, et plus encore. Comprendre ce que cela signifie d’être des animaux, et étendre cette révolution cognitive pour comprendre à quel point nous sommes aussi des algorithmes. Nous devrons tous dépasser l’obstacle qui consiste à penser qu’une compétence humaine particulière – créativité, dextérité, empathie, peu importe – va nous différencier de l’IA. Nous aider à accepter qui nous sommes vraiment, comment nous travaillons, sans que nous perdions l’engagement de nos vies, est un énorme projet étendu pour l’humanité, et pour les humanités.
Parvenir à cette compréhension sans qu’un nombre important d’entre nous n’embrasse des identités polarisantes, superstitieuses ou favorables aux machines qui mettent en danger nos sociétés n’est pas seulement une préoccupation pour les sciences humaines, mais aussi pour les sciences sociales et pour certains dirigeants politiques. Pour d’autres leaders politiques, malheureusement, cela peut être une opportunité. Une voie vers le pouvoir peut consister à encourager et à tirer parti de ces insécurités et de ces idées fausses, tout comme certains utilisent actuellement la désinformation pour perturber les démocraties et la réglementation. L’industrie technologique en particulier doit prouver qu’elle est du côté de la transparence et de la compréhension qui sous-tendent la démocratie libérale, et non du côté du secret et du contrôle autocratique.
IL Y A DEUX choses que l’IA n’est vraiment pas, quelle que soit l’admiration que je porte aux personnes qui prétendent le contraire : Ce n’est pas un miroir, et ce n’est pas un perroquet. Contrairement à un miroir, elle ne se contente pas de nous refléter passivement la surface de ce que nous sommes. Grâce à l’IA, nous pouvons générer des idées nouvelles – des images, des histoires, des dictons, de la musique – et tous ceux qui détectent ces capacités croissantes ont raison d’être émus. Chez les autres humains, une telle créativité est d’une valeur énorme, non seulement pour reconnaître la proximité sociale et l’investissement social, mais aussi pour décider qui détient des gènes de qualité avec lesquels vous pourriez souhaiter combiner les vôtres.
L’IA n’est pas non plus un perroquet. Les perroquets perçoivent beaucoup des mêmes couleurs et des mêmes sons que nous, de la même manière que nous, en utilisant à peu près le même matériel et en faisant donc l’expérience de la même phénoménologie. Les perroquets sont très sociaux. Ils s’imitent les uns les autres, probablement pour prouver leur appartenance à un groupe et leur affection mutuelle, tout comme nous. Cela ne ressemble pas du tout à ce que font Google ou Amazon lorsque leurs appareils vous transmettent votre culture et vos désirs par « perroquet ». Mais au moins ces organisations ont des animaux (des personnes) en elles, et se soucient de choses comme le temps. Le perroquet qui fait le perroquet n’a absolument rien à voir avec ce que fait un dispositif d’IA à ces mêmes moments, qui déplace quelques bits numériques d’une manière connue pour être susceptible de vendre des produits aux gens.
Mais tout cela signifie-t-il que l’IA ne peut pas être sensible ? Qu’est-ce que cette « sensibilité » que certains prétendent détecter ? Le dictionnaire anglais Oxford dit que c’est « avoir une perspective ou un sentiment ». J’ai entendu des philosophes dire que c’est « avoir une perspective ». Les caméras de surveillance ont des perspectives. Les machines peuvent « sentir » (ressentir) tout ce pour quoi nous construisons des capteurs – le toucher, le goût, le son, la lumière, le temps, la gravité – mais représenter ces choses comme de grands nombres entiers dérivés de signaux électriques signifie que toute « sensation » de machine est bien plus différente de la nôtre que la vision d’un bourdon ou le sonar d’une chauve-souris.
Certaines personnes définissent la perception comme nécessitant une conscience, mais qu’est-ce que c’est ? Si par « conscience » vous entendez « conscience de soi », eh bien, les ordinateurs ont la capacité d’être infiniment plus conscients de soi que nous ne le sommes. RAM signifie « mémoire à accès aléatoire » ; nous pouvons construire des programmes informatiques qui ont accès à chaque parcelle de leur expérience antérieure ainsi qu’à leur propre code source et état d’exécution. En tant que psychologue cependant, j’ai tendance à me référer à la conscience comme à « la partie de notre expérience que nous pouvons décrire verbalement » – et là encore, si nous relions le traitement du langage naturel à l’expérience réelle ou à l’état d’un système, il devrait être parfaitement capable de décrire bien plus de son fonctionnement qu’un humain ne le peut. En fin de compte, aucune compétence humaine particulière – ni la créativité, ni la dextérité, ni au moins l’apparence d’empathie – ne nous différenciera de l’IA.
LA CLÉ POUR comprendre à la fois l’embrassade inexacte des machines et le mépris excessif des capacités de l’IA est de voir les limites du fossé entre la nature humaine et le contrôle algorithmique numérique. Les humains sont trop algorithmiques – une grande partie de notre culture et de notre intelligence fonctionne comme un grand modèle de langage, absorbant et recombinant ce que nous avons entendu. Il y a ensuite l’algorithme fondamental de l’humanité et du reste de l’intelligence naturelle : l’évolution. L’évolution est l’algorithme qui perpétue des copies de lui-même. L’évolution sous-tend nos motivations. Elle garantit que les éléments essentiels à notre survie – comme l’intelligence, la conscience et la coopération, qui sont au cœur de ce débat – ont une grande importance pour nous. Sur le plan émotionnel. Par exemple, l’évolution nous fait désirer des choses qui nous procurent suffisamment de sécurité pour que notre espèce ait des chances de se perpétuer.
Nous parlons de pulsions comme la faim, la soif, le sommeil ou la luxure. Pour comprendre le débat sur la « sensibilité de l’IA », nous devons également parler des deux pulsions sociales fondamentales mais opposées que les humains éprouvent lorsqu’ils construisent leur identité. Nous avons tendance à penser que l’identité consiste à se démarquer : comment nous sommes uniques, en tant qu’individus. Nous voulons être spéciaux, nous différencier au sein de telle société. Mais en fait, nous définissons souvent notre identité en nous alignant sur divers groupes d’appartenance : notre religion, notre ville d’origine, notre sexe (ou l’absence de sexe), notre travail, notre espèce, notre taille relative, notre force relative ou nos compétences. Nous sommes donc poussés à la fois à nous différencier, mais aussi à appartenir à un groupe.
Et maintenant, nous en arrivons au langage. Le langage a longtemps été un moyen privilégié de déshumaniser les autres – le mot barbare signifie « celui qui ne parle pas la langue ». Les animaux non humains sont des choses que nous sommes autorisés par nos religions à manger, dans l’ensemble. Lorsque quelqu’un (un humain) parle exactement notre langue, cela signifie qu’il a investi énormément de temps pour devenir expert dans toutes les choses que nous possédons. Ils ont peut-être passé des années de leur vie à vivre près de nous, ils partagent nos intérêts et nos valeurs. Ils comprennent nos blagues parce qu’ils ont regardé les mêmes divertissements ou vécu les mêmes rites de passage religieux. Peut-être ont-ils dépensé une fortune pour acquérir une éducation similaire, ou peut-être ont-ils regardé un nombre insoutenable de matchs du même sport.
Nous ressentons tous ces investissements lorsque nous parlons à quelqu’un. Nous sentons que « c’est une personne que je comprends, c’est une personne que je peux prévoir ». Nous pouvons appeler cela « confiance » si nous voulons – nous pensons que cette personne n’est pas susceptible de nous trahir, car elle doit elle aussi voir à quel point nos intérêts sont alignés. Entrez maintenant dans les machines dotées d’un langage. Pas étonnant qu’elles nous déroutent. Notre défensive autour de ces concepts socio-cognitifs clés que sont l’intelligence, la conscience et la coopération est notre défense de l’identité que nous avons passé tant de temps à acquérir. Nous voulons qu’elle soit absolue, inviolable, mystique, ou du moins totalement sous le contrôle de notre société.
Ce qui devrait vraiment nous inquiéter en ce qui concerne l’IA, ce ne sont pas les capacités cognitives de base comme le langage ou la conscience, ou les stratégies comportementales comme la coopération, mais deux rôles sociaux très spécifiques associés à ceux-ci et à nos propres biais évolutifs. Le premier rôle – l’agence morale – consiste à se voir attribuer (ou à être réellement autorisé) un rôle de responsabilité par une société. Historiquement, pour des raisons évidentes, la responsabilité a dû être limitée à ceux avec qui nous pouvions communiquer, et en qui nous avions confiance. Encore le langage.
Tous les membres actifs d’une société sont ses agents moraux, et toutes les choses dont ils sont obligés de prendre soin sont ce second rôle social, ses patients moraux. L’évolution a fait en sorte que nous, les animaux, attribuions instinctivement la patience (ou le comportement de soin) aux choses qui sont susceptibles de nous aider à perpétuer les algorithmes de perpétuation. Des choses comme les bébés, un nid propre et sain, et les autres agents moraux de nos sociétés sur lesquels repose notre sécurité. Nos valeurs sont la manière dont nous maintenons nos sociétés ensemble ; elles n’ont aucun sens en dehors du contexte de l’évolution et des singes.