Les grands modèles de langage ne seront jamais conscients selon une étude de Google DeepMind
Atteindront-ils un jour une conscience similaire à celles des humains ? Non, selon un chercheur de Google DeepMind qui soutient que les grands modèles de langage (GML) ne l’atteindront jamais.
Selon l’article de 404 Media, Alexander Lerchner, chercheur principal au laboratoire d’intelligence artificielle DeepMind de Google, affirme dans un nouvel article qu’aucune IA ni aucun autre système informatique ne deviendra jamais conscient.
Pas de consensus dans la communauté IA
Cette conclusion semble contredire le discours des PDG d’entreprises d’IA, notamment celui de Demis Hassabis, de DeepMind, qui évoque régulièrement l’avènement de l’intelligence artificielle générale (AGI). L’AGI « aura un impact environ dix fois supérieur à celui de la révolution industrielle, mais se produira dix fois plus vite », selon les propos récents de Hassabis.
L’article du chercheur met en évidence le fossé entre les discours intéressés que les entreprises d’IA diffusent dans les médias et la façon dont ceux-ci s’effondrent lorsqu’ils sont soumis à un examen rigoureux.
L’IA peut imiter la conscience, mais ne peut l’incarner
D’autres philosophes et chercheurs spécialisés en conscience ont déclaré que l’article de Lerchner, intitulé The Abstraction Fallacy : Why AI Can Simulate But Not Instantiate Consciousness (Le sophisme de l’abstraction : pourquoi l’IA peut simuler mais pas incarner la conscience), est solide et qu’ils sont heureux de voir cet argument émaner d’une des grandes entreprises d’IA, mais que d’autres experts du domaine avancent exactement les mêmes arguments depuis des décennies.
L’article de Lerchner est complexe, mais son argument se résume globalement à l’idée que tout système d’IA est en fin de compte « dépendant du cartographe », ce qui signifie qu’il « nécessite un agent cognitif actif et sensible » — un humain — pour « classer la physique continue en un ensemble fini d’états significatifs ». En d’autres termes, il a besoin d’une personne pour d’abord organiser le monde d’une manière utile au système d’IA, comme, par exemple, la façon dont des armées de travailleurs sous-payés en Afrique étiquettent des images afin de créer des données d’entraînement pour l’IA.
Ce qu’on appelle le « sophisme de l’abstraction » est la croyance erronée selon laquelle, parce que nous avons organisé les données de manière à permettre à l’IA de manipuler le langage, les symboles et les images d’une façon qui imite un comportement sensible, celle-ci pourrait réellement atteindre la conscience. Mais, comme le soutient Lerchner, cela serait impossible sans un corps physique.
Les machines ne font pas d’effort pour vivre
« En tant qu’être humain, vous avez de nombreuses autres motivations. C’est un peu plus compliqué que cela, mais toutes découlent du fait que vous devez manger, respirer et fournir constamment un effort physique simplement pour rester en vie, et aucun système non vivant ne fait cela », explique Johannes Jäger, biologiste des systèmes évolutifs et philosophe.
« Un GML ne fait pas cela. Ce n’est qu’un ensemble de modèles sur un disque dur. Ensuite, on lui donne une instruction et il fonctionne jusqu’à ce que la tâche soit terminée, puis c’est fini. Il n’a donc aucune signification intrinsèque. Sa signification provient de la manière dont un agent humain externe lui a attribué une signification. »
On pourrait imaginer une IA incarnée programmée avec des besoins physiques semblables à ceux des humains, et Jäger a expliqué pourquoi un tel système ne pourrait pas non plus atteindre la conscience, mais cela dépasse le cadre de cet article. Il existe une montagne de littérature et des décennies de recherche consacrées à ces questions, et presque rien de tout cela n’est cité dans l’article de Lerchner.
« Je suis d’accord avec 99 % de tout ce qu’il [Lerchner] dit, selon Mark Bishop, professeur d’informatique cognitive à Goldsmiths, Université de Londres. Mon seul point de désaccord est que tous ces arguments ont été présentés il y a des années. »
Bishop et Jäger ont tous deux déclaré qu’il était positif, mais étrange, que Google ait autorisé Lerchner à publier cet article. Ils ont tous deux souligné que l’argument avancé par Lerchner, avec lequel ils sont d’accord, n’est pas une question philosophique obscure sans rapport avec l’utilisateur lambda, mais que l’affirmation selon laquelle l’IA ne peut pas atteindre la conscience implique qu’il existe une limite stricte à ce que l’IA pourrait accomplir sur le plan pratique et commercial.
Loin d’une position officielle de Google
L’article de Lerchner comporte une clause de non-responsabilité en bas de page qui stipule : « Le cadre théorique et les preuves détaillés dans le présent document représentent les recherches et les conclusions personnelles de l’auteur. Ils ne reflètent pas nécessairement la position officielle, les opinions ou les politiques stratégiques de son employeur. » L’article a été initialement publié le 10 mars et figure toujours sur le site de Google DeepMind. Le PDF de l’article lui-même, hébergé sur philpapers.org.