Pierre-Louis Lions est un brillant mathématicien français. Passé par les bancs de l’École Normale Supérieure, il publie son premier article en 1977. Bénéficiant d’une double maîtrise de mathématiques et d’informatique, il s’illustre dans le domaine des équations aux dérivées partielles et, en particulier, celles associées à la théorie de la décision. Pour couronner et encourager ses travaux, il reçoit de nombreux prix dont la médaille Fields en 1994.
Dans votre livre, vous dites que les algorithmes de Deep Learning d’aujourd’hui ne sont pas encore de l’IA à proprement parler et que « l’IA n’est pas pour demain », à quel moment peut-on alors parler d’intelligence artificielle ?
Je n’aime pas tellement le mot intelligence artificielle, car il évoque beaucoup de concepts simultanément. Depuis quelques années, nous parlons de Deep Learning et de Machine Learning et nous évoquons une forme d’intelligence associée à ces algorithmes, alors que rien n’est très bien défini. Le Machine Learning existait déjà avec soit des techniques statistiques soit des algorithmes purement informatiques pour traiter fondamentalement des données numérisées.
De manière plus globale, l’analyse des données est un secteur mathématique qui existe depuis des décennies. Tout à coup arrive le Deep Learning qui est basé sur des réseaux de neurones artificiels, ces derniers existaient depuis des décennies et étaient par exemple utilisés par Airbus dès les années 80.
Ainsi, il n’est pas plus pertinent de parler aujourd’hui d’intelligence artificielle que par le passé. Définir l’intelligence artificielle nécessiterait de comprendre parfaitement ce qu’est l’intelligence pour ensuite lui donner un sens dans le monde numérique.

Mais comment se fait-il que l’on en parle autant maintenant, et que penser alors d’algorithmes comme alphago qui ont marqué le monde par leur créativité ?
Un effet de mode sûrement, mais il y a aussi et surtout une puissance informatique qui a grandement changé, nous avons eu accès à des masses de données absolument considérables. Puis nous nous sommes rendu compte que les réseaux de neurones accomplissent des tâches qui ne sont pas si simples que cela à faire du point de vue algorithmique comme la reconnaissance faciale.
Enfin, pour revenir au jeu de go, c’était spectaculaire. Nous le savons, le jeu de go est un jeu indécidable, c’est-à-dire que l’on ne peut pas créer un algorithme déterministe qui assure la victoire , mais on peut quand même faire quelque chose qui bat les meilleurs joueurs du monde comme cela a été le cas : c’est donc incontestablement un succès.
Mais sait-on vraiment comment cela marche ? Nous n’avons pas une compréhension précise en particulier mathématique du comment et pourquoi cela marche.
Tout ceci apparaît bien négatif, mais il n’en reste pas moins que le Machine Learning, avec la force de frappe de Google est évidemment un succès, cela change de manière considérable un certain nombre d’activités.
Il faut simplement être conscient des limites et ne pas penser que ce qu’on appelle la “singularité”, c’est-à-dire, assez brutalement, des machines qui passent le test de Turing, avec tous les aspects de l’intelligence, sera pour demain.
Est-ce que cela existera un jour? Je n’en sais rien, honnêtement j’en doute et en tout cas je ne le verrai pas.
On entend beaucoup parler de l’IA dans les médias et on ressent l’effervescence autour de ce domaine. Cette effervescence est-elle justifiée ou devons-nous nous préparer à un nouvel hiver de l’intelligence artificielle ?
Je ne suis pas devin, je n’ai aucune idée de ce qu’il va se passer et les gens qui essayent de prévoir se trompent en général complètement.
Oui, il y a eu des succès et un effet de nouveauté, puis des outils efficaces ont été mis à la disposition du grand public. Cependant, il faut faire attention aux biais des données sur lesquels les algorithmes sont entraînés et à leur utilisation dans la société.
Donc entre les nouveautés et les problèmes d’éthique, il est normal qu’on en ait beaucoup parlé surtout que c’était beaucoup plus qu’une découverte scientifique, une marche a été franchie et il y en aura certainement d’autres.

Le réel risque du “buzz médiatique », c’est qu’il y ait un mouvement de balancier, que cela retombe et je ne voudrais pas que cela soit trop violent parce qu’il y a vraiment matière à faire des choses intéressantes dans ce domaine. Ma position est donc mesurée : attention à ne pas exagérer, mais je ne voudrais pas que, tout à coup, on se dise que cela ne résout pas tout et qu’on s’y désintéresse. Ce risque de désintéressement, de déception existe et commence peut-être doucement à se produire…
Dans le chapitre « Moment Données » de votre livre, vous parlez « d’ouvrir la boîte noire du Deep Learning », qu’entendez-vous par cette expression ? En quoi cela représente un des grands enjeux du XXIème siècle ?
Le terme “Boite noire” signifie simplement que l’on constate que les algorithmes donnent des résultats satisfaisants qui ne sont pas totalement reproductibles: si l’on fait tourner un calcul nous ne sommes pas totalement sûr de retrouver le même résultat, et on ne dispose pas d’une explication sur la raison pour laquelle cela marche. Il n’empêche que l’on progresse, puisque il y a des démonstrations prouvant que le Machine Learning ne peut pas résoudre certains problèmes.
Maintenant, il serait bon d’avoir une compréhension détaillée si ce n’est des preuves mathématiques expliquant pourquoi ces algorithmes fonctionnent : ceci justement pour être sûr de la neutralité des algorithmes et de leur fiabilité.
Par exemple, nous faisons des calculs mathématiques extrêmement précis pour comprendre la stabilité d’un avion et il est impensable de passer par des algorithmes de Machine Learning pour faire ces calculs car ils doivent être fiables : nous devons être absolument sûrs de ces résultats. Personnellement, je ne monterais pas dans un avion dont les calculs ont été réalisé avec du machine learning.
Il y a néanmoins beaucoup de matheux et d’informaticiens qui réfléchissent à ce problème, il y a beaucoup d’activités dans le monde autour de ce sujet et donc d’avancées. Par exemple, au dernier congrès international des mathématiciens, il y avait 4 conférences au moins (sur une vingtaine de conférences plénières) à propos de la compréhension mathématique de ce qui se passe dans les réseaux de neurones.
L’enjeu est absolument crucial, il en va jusqu’à l’acceptabilité sociale, en effet tant que ce n’est pas prouvé cela peut être contesté. Sans preuve on ne peut rien affirmer, la seule manière de dire qu’un algorithme ne se trompe pas c’est s’il soit prouvé : nous ne savons pas si un algorithme est biaisé mais ce dont nous sommes sûrs c’est que les mathématiques ne le sont pas.
A quelles branches des mathématiques, l’IA est-elle adossée ?
Il y en a de nombreuses comme les statistiques, l’optimisation, nous avons aussi vu aussi les spécialistes de ce que l’on appelle la théorie de l’approximation et des ondelettes s’attaquer au Machine Learning. Il y a aussi les spécialistes de l’analyse stochastique, puisqu’il y a un aspect aléatoire notamment dans ce qu’on appelle la rétro propagation du gradient.
Ce sont des secteurs très variés mais je dirais que c’est principalement les statistiques, l’optimisation, l’analyse stochastique et la théorie de l’approximation. Et j’en oublie peut-être !
Pensez-vous que l’IA et le développement durable sont compatibles ? Avez-vous des exemples de bonnes ou mauvaises pratiques d’un point de vue environnemental ?
Le premier point c’est que l’IA est une composante de l’activité numérique donc il est très difficile de séparer l’impact environnemental de l’activité de l’IA de l’activité numérique dans son ensemble.
Nous le savons tous et toutes, le numérique a une forte empreinte carbone. Sa mesure est extrêmement complexe et peu précise comme en témoigne les chiffres qui estiment que le numérique contribuerait entre 1 à 12% des émissions de CO2 mondiales. Comme toute activité humaine, le numérique a un impact négatif sur l’environnement.
Le deuxième point, c’est : comment peut-on se servir du Machine learning pour essayer de lutter contre le changement climatique ?
Nous commençons à accumuler de plus en plus des données « vertes », notamment des données financières. C’est un point crucial car la transition énergétique, si elle se passe, devra être financée par la finance. Or lorsque l’on dispose de grandes quantités de données, le Machine Learning devient efficace et les applications se multiplient.
La start-up Kayrros s’est spécialisée dans la détection des fuites de méthane dans le monde en utilisant des techniques de traitements d’images satellites et de Machine Learning. Ils ont pu observer que ces fuites peuvent représenter jusqu’à 20% du volume du méthane sur certaines installations. Lorsque l’on connaît le pouvoir délétère de ces gaz, cela fait froid dans le dos.
Donc bien sûr le Machine Learning peut participer et participe déjà à faire avancer la prise de conscience et la mise en œuvre de la transition énergétique.
Que pensez-vous des programmes scolaires actuels, notamment en mathématiques et en informatique ? Ces matières ne sont-elles pas négligées et ne risque-t-on pas d’aboutir à une société dominée par tous ces domaines sans pour autant que la grande majorité les comprenne ?
La situation est catastrophique. L’éducation est un système avec beaucoup d’inertie. L’école française de mathématiques est très performante, et heureusement, elle ne va pas s’effondrer du jour au lendemain. Mais, elle montre des signes de faiblesses inquiétants. Si on compare l’école mathématique à une pyramide, nous pouvons dire que les fondations sont en train de s’effondrer et que tôt ou tard le haut de la pyramide sera impacté.
Globalement, l’enseignement de masse est à la dérive. Les fondamentaux mathématiques ne sont pas maîtrisés par une grande partie des enfants. Par exemple, « la règle de trois » ou le calcul avec des fractions, nécessaires dans la vie de tous les jours, sont de moins en moins maîtrisés.
Un des plus grands risques est que cette culture quantitative devienne l’apanage d’une petite fraction de la population créant ainsi de fortes inégalités. Le remède : il faut améliorer l’enseignement de ces matières.
La société se numérise, donc il nous faut des gens qui parlent ce langage et qui comprennent ses implications. Sinon, qu’aurons-nous ? Nous aurons 90% de personnes complètement dépassées et une super élite. Il faut à tout prix échapper à cela.
Les programmes scolaires en sont-ils responsables?
J’ai un avis plutôt disruptif à propos des programmes scolaires. J’estime qu’il faut réduire les programmes au minimum et donner de la liberté aux établissements pour organiser l’enseignement, comme en Finlande. Je crois aussi que l’école doit apprendre aux élèves le goût de l’effort. Il faut distinguer les efforts qui ont pour objectif d’avoir des notes correctes, de passer dans la classe supérieure et les efforts pour apprendre, qui peuvent devenir un plaisir. De même, j’estime que les notions enseignées doivent être placées dans leur contexte pour montrer aux élèves que ce ne sont pas seulement des objets inventés pour les ennuyer et qu’ils ont aussi des applications concrètes dans la vie.
Quels conseils donneriez-vous aux jeunes générations et plus particulièrement aux étudiants en intelligence artificielle ?
La première chose qui me vient en tête : amusez-vous. Au-delà de la formation universitaire, pratiquez un sport, faites de la musique et soyez curieux. C’est un conseil de vie.
L’intelligence artificielle est un secteur d’avenir donc il n’y aura pas de problème d’emploi. Si vous pouvez vous le permettre, il faut choisir un métier qui vous intéresse, qui vous stimule et qui vous passionne. C’est absolument indispensable. J’insiste : soyez curieux, soyez informé et n’hésitez pas à aller parler aux professeurs et aux professionnels du domaine.
Propos recueillis par Yanis Fallet & Paul Arrault