DeepMind Gato et le chemin long et incertain vers l'intelligence générale artificielle

Photo : Photographie possédée/Unsplash


  • Le mois dernier, DeepMind, une filiale du géant de la technologie Alphabet, a mis la Silicon Valley en effervescence en annonçant Gato, peut-être le modèle d’IA le plus polyvalent qui existe.
  • Pour certains experts en informatique, c’est la preuve que l’industrie est sur le point d’atteindre un jalon tant attendu et très médiatisé : l’intelligence générale artificielle (IAG).
  • Ce serait énorme pour l’humanité. Pensez à tout ce que vous pourriez accomplir si vous disposiez d’une machine pouvant être physiquement adaptée à n’importe quel usage.
  • Mais une foule d’experts et de scientifiques ont fait valoir qu’il manquait quelque chose de fondamental dans les plans grandioses visant à intégrer une IA de type Gato dans des machines AGI à part entière.

Le mois dernier, DeepMind, une filiale du géant de la technologie Alphabet, a mis la Silicon Valley en effervescence en annonçant Gato, peut-être le modèle d’intelligence artificielle le plus polyvalent qui existe. Présenté comme un “agent généraliste”, Gato peut effectuer plus de 600 tâches différentes. Il peut piloter un robot, légender des images, identifier des objets dans des images, etc. C’est probablement le système d’IA le plus avancé de la planète qui n’est pas dédié à une fonction unique. Et, pour certains experts en informatique, c’est la preuve que l’industrie est sur le point d’atteindre un jalon tant attendu et très médiatisé : l’intelligence artificielle générale.

Contrairement à l’IA ordinaire, l’intelligence générale artificielle (AGI) n’aurait pas besoin d’énormes quantités de données pour apprendre une tâche. Alors que l’intelligence artificielle ordinaire doit être pré-formée ou programmée pour résoudre un ensemble spécifique de problèmes, une intelligence générale peut apprendre par l’intuition et l’expérience.

Un AGI serait en théorie capable d’apprendre tout ce qu’un humain peut, s’il avait le même accès à l’information. Fondamentalement, si vous mettez un AGI sur une puce et que vous mettez ensuite cette puce dans un robot, le robot pourrait apprendre à jouer au tennis de la même manière que vous ou moi : en balançant une raquette et en se familiarisant avec le jeu. Cela ne signifie pas nécessairement que le robot serait sensible ou capable de cognition. Il n’aurait ni pensées ni émotions, il serait juste très bon pour apprendre à faire de nouvelles tâches sans aide humaine.

Ce serait énorme pour l’humanité. Pensez à tout ce que vous pourriez accomplir si vous aviez une machine avec la capacité intellectuelle d’un humain et la loyauté d’un compagnon canin de confiance – une machine qui pourrait être physiquement adaptée à n’importe quel but. C’est la promesse d’AGI. C’est C-3PO sans les émotions, le Lt Commander Data sans la curiosité et Rosey le Robot sans la personnalité. Entre les mains des bons développeurs, il pourrait incarner l’idée d’une IA centrée sur l’humain.

Mais à quel point, vraiment, le rêve d’AGI est-il proche ? Et Gato nous en rapproche-t-il vraiment ?

Pour un certain groupe de scientifiques et de développeurs (j’appellerai ce groupe la foule “Scaling-Uber-Alles”, en adoptant un terme inventé par l’expert en intelligence artificielle de renommée mondiale Gary Marcus), Gato et des systèmes similaires basés sur des modèles de transformateur d’apprentissage en profondeur ont nous a déjà donné le plan pour la construction d’AGI. Essentiellement, ces transformateurs utilisent d’énormes bases de données et des milliards ou des milliards de paramètres ajustables pour prédire ce qui se passera ensuite dans une séquence.

La foule de Scaling-Uber-Alles, qui comprend des noms notables tels que Ilya Sutskever d’OpenAI et Alex Dimakis de l’Université du Texas à Austin, estime que les transformateurs mèneront inévitablement à AGI ; il ne reste plus qu’à les rendre plus grands et plus rapides. En tant que Nando de Freitas, membre de l’équipe qui a créé Gato, tweeté récemment: « Tout est question d’échelle maintenant ! Le jeu est terminé! Il s’agit de rendre ces modèles plus gros, plus sûrs, plus efficaces en termes de calcul, plus rapides à l’échantillonnage, une mémoire plus intelligente… » De Freitas et sa société comprennent qu’ils devront créer de nouveaux algorithmes et architectures pour soutenir cette croissance, mais ils semblent également croire qu’un AGI émergera tout seul si nous continuons à agrandir des modèles comme Gato.

Appelez-moi démodé, mais quand un développeur me dit que son plan est d’attendre qu’un AGI émerge comme par magie du miasme du big data comme un mudfish de la soupe primordiale, j’ai tendance à penser qu’il saute quelques étapes. Apparemment, je ne suis pas seul. Une foule d’experts et de scientifiques, dont Marcus, ont fait valoir qu’il manquait quelque chose de fondamental dans les plans grandioses visant à transformer l’IA de type Gato en machines généralement intelligentes à part entière.

J’ai récemment expliqué ma pensée dans une trilogie d’essais pour Le prochain Web‘s Neural vertical, où je suis éditeur. En bref, une prémisse clé d’AGI est qu’elle devrait être en mesure d’obtenir ses propres données. Mais les modèles d’apprentissage en profondeur, tels que les IA de transformateur, ne sont guère plus que des machines conçues pour faire des inférences relatives aux bases de données qui leur ont déjà été fournies. Ce sont des bibliothécaires et, en tant que tels, ils ne sont aussi bons que leurs bibliothèques de formation.

Une intelligence générale pourrait théoriquement comprendre les choses même si elle avait une petite base de données. Il aurait l’intuition de la méthodologie pour accomplir sa tâche en se basant sur rien de plus que sa capacité à choisir quelles données externes étaient et n’étaient pas importantes, comme un humain décidant où placer son attention.

Gato est cool et il n’y a rien de tel. Mais, essentiellement, il s’agit d’un package intelligent qui présente sans doute l’illusion d’une IA générale grâce à l’utilisation experte du Big Data. Sa base de données géante, par exemple, contient probablement des ensembles de données construits sur l’intégralité du contenu de sites Web tels que Reddit et Wikipedia. C’est incroyable que les humains aient réussi à faire autant avec des algorithmes simples simplement en les forçant à analyser plus de données.

En fait, Gato est un moyen tellement impressionnant de simuler l’intelligence générale que je me demande si nous ne nous trompons pas d’arbre. La plupart des tâches dont Gato est capable aujourd’hui étaient autrefois considérées comme quelque chose que seul un AGI pouvait faire. Il semble que plus nous accomplissons avec l’IA régulière, plus le défi de construire un agent général semble être difficile.

Pour ces raisons, je suis sceptique quant au fait que l’apprentissage en profondeur seul est la voie vers l’IAG. Je crois que nous aurons besoin de plus que de plus grandes bases de données et de paramètres supplémentaires à peaufiner. Nous aurons besoin d’une approche conceptuelle entièrement nouvelle de l’apprentissage automatique.

Je pense que l’humanité finira par réussir dans sa quête pour construire AGI. Ma meilleure hypothèse est que nous frapperons à la porte d’AGI vers le début ou le milieu des années 2100, et que, lorsque nous le ferons, nous constaterons que cela semble assez différent de ce que les scientifiques de DeepMind envisagent.

Mais la belle chose à propos de la science est que vous devez montrer votre travail, et, en ce moment, DeepMind fait exactement cela. Il a toutes les chances de me prouver, à moi et aux autres opposants, que nous avons tort.

J’espère vraiment, profondément qu’il réussira.

Tristan Greene est un futuriste qui croit au pouvoir de la technologie centrée sur l’humain. Il est actuellement rédacteur en chef de Neural, la verticale du futurisme de The Next Web.

Cet article a été publié pour la première fois par Non sombre.