banner

Nouvelles

Jul 31, 2023

Le PDG de DeepMind, Demis Hassabi, appelle à la prudence sur l'IA

Demis Hassabis se tient à mi-hauteur d'un escalier en colimaçon, surveillant la cathédrale qu'il a construite. Derrière lui, la lumière brille sur les barreaux d'une hélice dorée qui s'élève à travers le puits aéré de l'escalier. La sculpture d'ADN, qui s'étend sur trois étages, est la pièce maîtresse du siège social récemment ouvert de DeepMind à Londres. C'est une représentation artistique du code intégré dans le noyau de presque toutes les cellules du corps humain. "Bien que nous travaillions à rendre les machines intelligentes, nous voulions garder l'humanité au centre de ce que nous faisons ici", a déclaré Hassabis, PDG et co-fondateur de DeepMind, à TIME. Ce bâtiment, dit-il, est une "cathédrale du savoir". Chaque salle de réunion porte le nom d'un scientifique ou d'un philosophe célèbre. nous nous rencontrons dans celui dédié à James Clerk Maxwell, l'homme qui a théorisé le premier le rayonnement électromagnétique. "J'ai toujours pensé à DeepMind comme une ode à l'intelligence", déclare Hassabis.

Hassabis, 46 ans, a toujours été obsédé par l'intelligence : qu'est-ce que c'est, les possibilités qu'elle ouvre et comment en acquérir davantage. Il était le deuxième meilleur joueur d'échecs au monde pour son âge à l'âge de 12 ans et il a obtenu son diplôme d'études secondaires un an plus tôt. À l'âge adulte, il frappe un personnage quelque peu diminutif, mais sa présence intellectuelle remplit la pièce. "Je veux comprendre les grandes questions, les très grandes que vous abordez normalement en philosophie ou en physique si cela vous intéresse", dit-il. "Je pensais que la construction de l'IA serait la voie la plus rapide pour répondre à certaines de ces questions."

DeepMind, une filiale de la société mère de Google, Alphabet, est l'un des principaux laboratoires d'intelligence artificielle au monde. L'été dernier, il a annoncé que l'un de ses algorithmes, AlphaFold, avait prédit les structures 3D de presque toutes les protéines connues de l'humanité, et que la société rendait la technologie sous-jacente disponible gratuitement. Les scientifiques connaissaient depuis longtemps les séquences d'acides aminés qui composent les protéines, les éléments constitutifs de la vie, mais n'avaient jamais compris comment ils se replient dans les formes 3D complexes si cruciales pour leur comportement dans le corps humain. AlphaFold a déjà été un multiplicateur de force pour des centaines de milliers de scientifiques travaillant sur des efforts tels que le développement de vaccins contre le paludisme, la lutte contre la résistance aux antibiotiques et la lutte contre la pollution plastique, selon la société. Aujourd'hui, DeepMind applique des techniques d'apprentissage automatique similaires au puzzle de la fusion nucléaire, en espérant que cela contribuera à produire une source abondante d'énergie bon marché et sans carbone qui pourrait sevrer l'économie mondiale des combustibles fossiles à un moment critique de la crise climatique.

Hassabis dit que ces efforts ne sont que le début. Lui et ses collègues ont travaillé vers une ambition beaucoup plus grande : créer une intelligence générale artificielle, ou AGI, en construisant des machines capables de penser, d'apprendre et d'être configurées pour résoudre les problèmes les plus difficiles de l'humanité. L'IA d'aujourd'hui est étroite, fragile et souvent pas très intelligente du tout. Mais l'AGI, selon Hassabis, sera une technologie "définitive de l'époque" - comme l'exploitation de l'électricité - qui changera le tissu même de la vie humaine. S'il a raison, cela pourrait lui valoir une place dans l'histoire qui reléguerait les homonymes de ses salles de réunion à de simples notes de bas de page.

Mais la promesse de l'IA s'accompagne également de périls. Ces derniers mois, des chercheurs qui ont construit un système d'IA pour concevoir de nouveaux médicaments ont révélé que leur outil pouvait facilement être réutilisé pour fabriquer de nouveaux produits chimiques mortels. Un modèle d'IA distinct formé pour cracher des discours de haine toxiques est devenu viral, illustrant le risque pour les communautés vulnérables en ligne. Et dans les laboratoires d'IA du monde entier, les experts en politique étaient aux prises avec des questions à court terme telles que ce qu'il faut faire lorsqu'une IA a le potentiel d'être réquisitionnée par des États voyous pour organiser des campagnes de piratage à grande échelle ou déduire des secrets nucléaires au niveau de l'État. En décembre 2022, ChatGPT, un chatbot conçu par OpenAI, le rival de DeepMind, est devenu viral pour sa capacité apparente à écrire presque comme un humain, mais a été critiqué pour sa sensibilité au racisme et à la désinformation. Il en a été de même pour la petite entreprise Prisma Labs, pour les selfies améliorés par l'IA de son application Lensa. Mais de nombreux utilisateurs se sont plaints que Lensa sexualisait leurs images, révélant des biais dans ses données de formation. Ce qui était autrefois le domaine de quelques entreprises technologiques aux poches profondes devient de plus en plus accessible. Alors que la puissance de calcul devient moins chère et que les techniques d'IA deviennent plus connues, vous n'avez plus besoin d'une cathédrale aux hauts murs pour effectuer des recherches de pointe.

Lire la suite : Le prix de votre selfie généré par l'IA

C'est dans ce climat incertain que Hassabis accepte une interview rare, pour lancer un avertissement sévère sur ses inquiétudes croissantes. "Je préconiserais de ne pas aller vite et de ne pas casser des choses", dit-il, se référant à une vieille devise de Facebook qui encourageait les ingénieurs à diffuser d'abord leurs technologies dans le monde et à résoudre les problèmes qui surviendraient plus tard. L'expression est depuis devenue synonyme de perturbation. Cette culture, imitée par la suite par une génération de startups, a aidé Facebook à atteindre 3 milliards d'utilisateurs. Mais cela a également laissé l'entreprise totalement au dépourvu lorsque la désinformation, les discours de haine et même l'incitation au génocide ont commencé à apparaître sur sa plate-forme. Hassabis voit une tendance tout aussi inquiétante se développer avec l'IA. Il dit que l'IA est désormais "sur le point" de pouvoir fabriquer des outils qui pourraient être profondément préjudiciables à la civilisation humaine, et exhorte ses concurrents à procéder avec plus de prudence qu'auparavant. "Quand il s'agit de technologies très puissantes - et évidemment l'IA sera l'une des plus puissantes de tous les temps - nous devons être prudents", dit-il. "Tout le monde ne pense pas à ces choses. C'est comme les expérimentateurs, dont beaucoup ne réalisent pas qu'ils détiennent du matériel dangereux." Pire encore, souligne Hassabis, nous sommes les cobayes.

Hassabis n'avait que 15 ans lorsqu'il est entré dans les studios de jeux vidéo Bullfrog à Guildford, dans les collines verdoyantes juste au sud-ouest de Londres. Enfant, il avait toujours été obsédé par les jeux. Pas seulement les échecs - la principale source de son armoire à trophées en expansion - mais aussi les types auxquels vous pouviez jouer sur les premiers ordinateurs. Maintenant, il voulait aider à les fabriquer. Il avait participé à un concours dans un magazine de jeux vidéo pour décrocher un stage au prestigieux studio. Son programme - un jeu de style Space Invaders où les joueurs tirent sur des pièces d'échecs descendant du haut de l'écran - est arrivé en deuxième position. Il a dû se contenter d'une semaine de stage.

Peter Molyneux, co-fondateur de Bullfrog, se souvient encore d'avoir vu Hassabis pour la première fois. « Il ressemblait à un elfe du Seigneur des anneaux », dit Molyneux. "Ce petit enfant mince est entré, que vous croiseriez probablement dans la rue sans même le remarquer. Mais il y avait une étincelle dans ses yeux : l'étincelle de l'intelligence." Lors d'une conversation fortuite dans le bus pour la fête de Noël de Bullfrog, l'adolescent a captivé Molyneux. "Tout le voyage là-bas, et tout le voyage de retour, a été la conversation la plus stimulante sur le plan intellectuel", se souvient-il. Ils ont parlé de la philosophie des jeux, de la psyché humaine qui rend la victoire si attrayante et de la possibilité d'imprégner ces mêmes traits dans une machine. "Tout le temps je pense, ce n'est qu'un enfant!" Il sut alors que ce jeune homme était destiné à de grandes choses.

Le couple est devenu rapidement ami. Hassabis est retourné à Bullfrog l'été avant son départ pour l'Université de Cambridge et a passé une grande partie de ce temps avec Molyneux à jouer à des jeux de société et à des jeux informatiques. Molyneux se souvient d'une séquence de compétition féroce. "Je l'ai battu à presque tous les jeux informatiques, en particulier les jeux de stratégie", a déclaré Molyneux. "C'est une personne incroyablement compétitive." Mais les droits de vantardise de Molyneux ont été de courte durée. Ensemble, à la recherche d'une dynamique de jeu intéressante qui pourrait être la graine du prochain jeu vidéo à succès, ils ont inventé un jeu de cartes qu'ils ont appelé Dummy. Hassabis a battu Molyneux 35 fois de suite.

Après avoir obtenu son diplôme de Cambridge, Hassabis est retourné à Bullfrog pour aider Molyneux à créer son jeu le plus populaire à ce jour : Theme Park, un jeu de simulation donnant au joueur une vue plongeante sur une entreprise foraine en pleine expansion. Hassabis a ensuite créé sa propre société de jeux avant de décider plus tard d'étudier pour un doctorat. en neurosciences. Il voulait comprendre le niveau algorithmique du cerveau : non pas les interactions entre les neurones microscopiques mais les architectures plus larges qui semblaient donner naissance à la puissante intelligence de l'humanité. "L'esprit est l'objet le plus intrigant de l'univers", déclare Hassabis. Il essayait de comprendre comment cela fonctionnait en préparation de la quête de sa vie. "Sans comprendre que j'avais l'IA en tête tout le temps, cela ressemble à un chemin aléatoire", déclare Hassabis à propos de sa trajectoire professionnelle : échecs, jeux vidéo, neurosciences. "Mais j'ai utilisé chaque morceau de cette expérience."

En 2013, alors que DeepMind avait trois ans, Google est venu frapper à la porte. Une équipe de cadres de Google s'est envolée pour Londres dans un jet privé, et Hassabis les a séduits en leur montrant un prototype d'IA que son équipe avait appris à jouer au jeu vidéo Breakout. La technique de signature de DeepMind derrière l'algorithme, l'apprentissage par renforcement, était quelque chose que Google ne faisait pas à l'époque. Il a été inspiré par la façon dont le cerveau humain apprend, une compréhension que Hassabis avait développée pendant son temps en tant que neuroscientifique. L'IA jouait au jeu des millions de fois et était récompensée à chaque fois qu'elle marquait des points. Grâce à un processus de renforcement basé sur des points, il apprendrait la stratégie optimale. Hassabis et ses collègues croyaient avec ferveur à la formation de l'IA dans les environnements de jeu, et les dividendes de l'approche ont impressionné les dirigeants de Google. "Je les ai adorés immédiatement", déclare Alan Eustace, ancien vice-président senior de Google qui a dirigé le voyage de reconnaissance.

L'accent mis par Hassabis sur les dangers de l'IA était évident dès sa première conversation avec Eustache. "Il était suffisamment réfléchi pour comprendre que la technologie avait des implications sociétales à long terme, et il voulait les comprendre avant que la technologie ne soit inventée, pas après le déploiement de la technologie", a déclaré Eustace. "C'est comme les échecs. Quelle est la fin de partie ? Comment cela va-t-il se développer, pas seulement deux longueurs d'avance, mais 20 longueurs d'avance ?"

Eustace a assuré à Hassabis que Google partageait ces préoccupations et que les intérêts de DeepMind étaient alignés sur les siens. La mission de Google, a déclaré Eustace, était d'indexer toutes les connaissances de l'humanité, de les rendre accessibles et, finalement, d'augmenter le QI du monde. "Je pense que cela a résonné", dit-il. L'année suivante, Google a acquis DeepMind pour environ 500 millions de dollars. Hassabis a refusé une offre plus importante de Facebook. L'une des raisons, dit-il, était que, contrairement à Facebook, Google était "très heureux d'accepter" les lignes rouges éthiques de DeepMind "dans le cadre de l'acquisition". (Il y avait des rapports à l'époque selon lesquels Google avait accepté de mettre en place un comité d'éthique indépendant pour s'assurer que ces lignes ne soient pas franchies.) Les fondateurs du tout nouveau laboratoire d'IA ont également estimé que les poches profondes de la mégacorporation leur permettraient d'accéder à des talents et à une puissance de calcul qu'ils ne pourraient pas se permettre autrement.

Dans une vitrine enjambant le mur du fond du hall du siège social de DeepMind à Londres, parmi d'autres souvenirs des 12 premières années de la vie de l'entreprise, se trouve un grand carré de bois barbouillé de gribouillis noirs. C'est un souvenir du premier grand coup de DeepMind. Peu de temps après l'acquisition de Google, la société s'était lancée le défi de concevoir un algorithme capable de battre le meilleur joueur du monde à l'ancien jeu de société chinois Go. Les échecs avaient depuis longtemps été conquis par la programmation informatique par force brute, mais Go était beaucoup plus complexe ; les meilleurs algorithmes d'IA n'étaient toujours pas à la hauteur des meilleurs joueurs humains. DeepMind a abordé le problème de la même manière qu'ils avaient craqué Breakout. Il a construit un programme qui, après avoir appris les règles du jeu en observant le jeu humain, jouerait virtuellement contre lui-même des millions de fois. Grâce à l'apprentissage par renforcement, l'algorithme se mettrait à jour, réduisant les "poids" des décisions qui le rendaient plus susceptible de perdre la partie et augmentant les "poids" qui le rendaient plus susceptible de gagner. Lors d'un tournoi en Corée en mars 2016, l'algorithme, appelé AlphaGo, a affronté Lee Sedol, l'un des meilleurs joueurs de Go au monde. AlphaGo l'a battu quatre matchs contre un. Avec un feutre noir, le vaincu Lee a griffonné sa signature au dos du plateau de Go sur lequel la partie fatidique avait été jouée. Hassabis a signé au nom d'AlphaGo et DeepMind a gardé le plateau comme trophée. Les prévisionnistes ne s'attendaient pas à ce que le jalon soit franchi depuis une décennie. C'était une justification du discours de Hassabis à Google : que la meilleure façon de repousser les frontières de l'IA était de se concentrer sur l'apprentissage par renforcement dans les environnements de jeu.

Mais alors que DeepMind atteignait de nouveaux sommets, les choses commençaient à se compliquer. En 2015, deux de ses premiers investisseurs, les milliardaires Peter Thiel et Elon Musk, ont symboliquement tourné le dos à DeepMind en finançant la startup rivale OpenAI. Ce laboratoire, financé par la suite par 1 milliard de dollars de Microsoft, croyait également en la possibilité d'AGI, mais il avait une philosophie très différente pour y parvenir. Il n'était pas aussi intéressé par les jeux. Une grande partie de ses recherches ne s'est pas concentrée sur l'apprentissage par renforcement mais sur l'apprentissage non supervisé, une technique différente qui consiste à récupérer de grandes quantités de données sur Internet et à les pomper à travers des réseaux de neurones. Au fur et à mesure que les ordinateurs devenaient plus puissants et les données plus abondantes, ces techniques semblaient faire d'énormes progrès en termes de capacité.

Alors que DeepMind, Google et d'autres laboratoires d'IA travaillaient sur des recherches similaires à huis clos, OpenAI était plus disposé à laisser le public utiliser ses outils. Fin 2022, il a lancé DALL·E 2, qui peut générer une image de presque tous les termes de recherche imaginables, et le chatbot ChatGPT. Étant donné que ces deux outils ont été formés sur des données extraites d'Internet, ils étaient en proie à des biais structurels et à des inexactitudes. DALL·E 2 est susceptible d'illustrer les "avocats" comme de vieux hommes blancs et les "hôtesses de l'air" comme de belles jeunes femmes, tandis que ChatGPT est sujet à des affirmations confiantes de fausses informations. Entre de mauvaises mains, selon un article de recherche DeepMind de 2021, des outils de génération de langage comme ChatGPT et son prédécesseur GPT-3 pourraient accélérer la propagation de la désinformation, faciliter la censure ou la surveillance gouvernementale et perpétuer des stéréotypes nuisibles sous couvert d'objectivité. (OpenAI reconnaît que ses applications ont des limites, y compris des biais, mais dit qu'il s'efforce de les minimiser et que sa mission est de construire une AGI sûre au profit de l'humanité.)

Mais malgré les appels de Hassabis au ralentissement de la course à l'IA, il semble que DeepMind ne soit pas à l'abri des pressions concurrentielles. Début 2022, la société a publié un plan pour un moteur plus rapide. L'étude, appelée Chinchilla, a montré que bon nombre des modèles les plus avancés de l'industrie avaient été entraînés de manière inefficace et a expliqué comment ils pouvaient offrir plus de capacités avec le même niveau de puissance de calcul. Hassabis dit que le comité d'éthique interne de DeepMind a discuté de la question de savoir si la publication de la recherche serait contraire à l'éthique étant donné le risque qu'elle puisse permettre à des entreprises moins scrupuleuses de publier des technologies plus puissantes sans garde-corps fermes. L'une des raisons pour lesquelles ils ont décidé de le publier de toute façon était que "nous n'étions pas les seuls à connaître" le phénomène. Il dit que DeepMind envisage également de publier son propre chatbot, appelé Sparrow, pour une "bêta privée" quelque temps en 2023. (Le retard est pour que DeepMind travaille sur des fonctionnalités basées sur l'apprentissage par renforcement qui manquent à ChatGPT, comme citer ses sources. "Il est juste d'être prudent sur ce front", dit Hassabis.) Mais il admet que l'entreprise pourrait bientôt devoir changer son calcul. "Nous entrons dans une ère où nous devons commencer à penser aux profiteurs, ou aux personnes qui lisent mais ne contribuent pas à cette base d'informations", dit-il. "Et cela inclut également les États-nations." Il refuse de nommer ce qu'il veut dire - "c'est assez évident, qui vous pourriez penser" - mais il suggère que la culture de l'industrie de l'IA consistant à publier ouvertement ses découvertes pourrait bientôt devoir prendre fin.

Hassabis veut que le monde voie DeepMind comme un porte-étendard de la recherche sur l'IA sûre et éthique, donnant l'exemple dans un domaine plein d'autres axés sur la vitesse. DeepMind a publié des "lignes rouges" contre les utilisations contraires à l'éthique de sa technologie, y compris la surveillance et l'armement. Mais ni DeepMind ni Alphabet n'ont publiquement partagé le pouvoir juridique dont dispose DeepMind pour empêcher son parent - un empire de surveillance qui a touché aux contrats du Pentagone - de poursuivre ces objectifs avec les constructions AI DeepMind. En 2021, Alphabet a mis fin à des discussions de plusieurs années avec DeepMind sur la mise en place par la filiale d'une structure juridique indépendante qui empêcherait son IA d'être contrôlée par une seule entité corporative, a rapporté le Wall Street Journal. Hassabis ne nie pas que DeepMind ait fait ces tentatives, mais minimise toute suggestion selon laquelle il craint que la structure actuelle ne soit dangereuse. Lorsqu'on lui a demandé de confirmer ou d'infirmer si le comité d'éthique indépendant qui aurait été mis en place dans le cadre de l'acquisition de Google existe réellement, il a répondu qu'il ne pouvait pas, car tout est "confidentiel". Mais il ajoute que la structure éthique de DeepMind a "évolué" depuis l'acquisition "dans les structures que nous avons maintenant".

Hassabis affirme que DeepMind et Alphabet se sont engagés dans des cadres éthiques publics et ont intégré la sécurité dans leurs outils dès le début. DeepMind possède son propre comité d'éthique interne, l'Institutional Review Committee (IRC), composé de représentants de tous les secteurs de l'entreprise, présidé par sa directrice des opérations, Lila Ibrahim. L'IRC se réunit régulièrement, dit Ibrahim, et tout désaccord est transmis aux dirigeants de DeepMind pour une décision finale. "Nous opérons avec beaucoup de liberté", dit-elle. "Nous avons un processus d'examen distinct : nous avons notre propre comité d'examen éthique interne ; nous collaborons sur les meilleures pratiques et les apprentissages." Lorsqu'on lui demande ce qui se passe si l'équipe de direction de DeepMind n'est pas d'accord avec celle d'Alphabet, ou si ses "lignes rouges" sont franchies, Ibrahim répond simplement : "Nous n'avons pas encore eu ce problème."

L'un des jeux préférés d'Hassabis en ce moment est un jeu de stratégie appelé Polytopia. L'objectif est de transformer un petit village en un empire dominant le monde grâce à des avancées technologiques progressives. La pêche, par exemple, ouvre la porte à la navigation, ce qui conduit éventuellement les marines de vos navires à tirer des canons et à traverser les océans. À la fin du jeu, si vous avez astucieusement dirigé votre progrès technologique, vous serez assis au sommet d'un empire brillant et sophistiqué avec vos ennemis morts à vos pieds. (Elon Musk, dit Hassabis, est aussi un fan. La dernière fois que le couple s'est parlé, il y a quelques mois, Polytopia était le sujet principal de leur conversation. "Nous aimons tous les deux beaucoup ce jeu", dit Hassabis.)

Alors que la vision du monde de Hassabis est beaucoup plus nuancée et prudente, il est facile de voir pourquoi la philosophie du jeu résonne avec lui. Il semble toujours croire que le progrès technologique est intrinsèquement bon pour l'humanité et que sous le capitalisme, il est possible de prédire et d'atténuer les risques de l'IA. "Les progrès de la science et de la technologie : c'est ce qui fait avancer la civilisation", dit-il.

Hassabis pense que la richesse d'AGI, si elle arrive, devrait être redistribuée. "Je pense que nous devons nous assurer que les avantages profitent au plus grand nombre de personnes possible, à toute l'humanité, idéalement." Il aime les idées de revenu de base universel, en vertu desquelles chaque citoyen reçoit une allocation mensuelle du gouvernement, et les services de base universels, où l'État paie pour le niveau de vie de base comme le transport ou le logement. Il dit qu'un avenir axé sur l'AGI devrait être plus égalitaire sur le plan économique que le monde d'aujourd'hui, sans expliquer comment ce système fonctionnerait. "Si vous êtes dans un [monde d'] abondance radicale, il devrait y avoir moins de place pour cette inégalité et moins de moyens qui pourraient se produire. C'est donc l'une des conséquences positives de la vision AGI, si elle se concrétise."

D'autres sont moins optimistes quant à la réalisation de cet avenir utopique, étant donné que les dernières décennies de croissance de l'industrie technologique ont coïncidé avec d'énormes augmentations des inégalités de richesse. "Les grandes entreprises, y compris la grande entreprise qui possède DeepMind, doivent s'assurer qu'elles maximisent la valeur pour les actionnaires ; ne se concentrent pas vraiment sur la résolution de la crise climatique à moins qu'elle ne génère un profit ; et ne sont certainement pas intéressées par la redistribution de la richesse alors que l'objectif de l'entreprise est d'accumuler davantage de richesse et de la distribuer aux actionnaires", déclare Paris Marx, animateur du podcast Tech Won't Save Us. "Ne pas reconnaître ces choses, c'est vraiment ne pas tenir pleinement compte des impacts potentiels de la technologie." Alphabet, Amazon et Meta faisaient partie des 20 entreprises qui ont dépensé le plus d'argent pour faire pression sur les législateurs américains en 2022, selon le chien de garde de la transparence Open Secrets. "Ce qui nous manque, ce n'est pas la technologie pour faire face à la crise climatique ou pour redistribuer la richesse", déclare Marx. "Ce qui nous manque, c'est la volonté politique. Et il est difficile de voir comment le simple fait de créer une nouvelle technologie va créer la volonté politique d'avoir réellement ces transformations plus structurelles de la société."

De retour à l'escalier en colimaçon de DeepMind, un employé explique que la sculpture d'ADN est conçue pour tourner, mais aujourd'hui le moteur est cassé. Une inspection plus minutieuse montre que certains des échelons de l'hélice sont de travers. Au bas de l'escalier, une affiche sur un tabouret en bois devant cette métaphore géante de l'humanité. "S'il vous plaît, ne touchez pas", lit-on. "Il est très fragile et pourrait facilement être endommagé."

—Avec des reportages de Mariah Espada et Solcyre Burga

Écrire àBilly Perrigo à [email protected].

L'un des jeux préférés de Hassabis Prince Harry Breaks Royal Convention Safe Is India's Railway Network? Comment le monde doit réagir à l'IA Elliot Page : Adopter mon identité trans m'a sauvé Le sauteur en hauteur du Texas a gagné près d'un million de dollars.
PARTAGER