Stuart Russell est l’un des plus grands spécialistes mondiaux de l’ IA. Il nous livre sa vision des révolutions de l’intelligence en cours et fait le point sur leurs formidables enjeux économiques, politiques et éthiques. Voyage en terre méconnue au pays de ces machines pleines de petites cellules grises artificielles et de talents en devenir …

De quoi parle-t-on quand on parle d’intelligence ?

Si l’on définit l’intelligence comme la capacité à atteindre des objectifs, ce qui correspond globalement à la définition de l’intelligence humaine, alors une machine peut être dite intelligente si elle poursuit de tels objectifs.
Or on ne peut pas appliquer aux machines la même définition qu’à l’intelligence humaine, pour la bonne raison qu’elles n’ont par elles-mêmes aucun objectif. C’est pourquoi nous insérons généralement nos propres objectifs dans la machine et espérons les atteindre.

Mais pourront-elles devenir un jour intelligentes au sens courant de cette notion ?

Elles deviendront de plus en plus complexes, et leurs interactions avec les hommes le seront en proportion. Peut-être même deviendront-elles réellement plus intelligentes que les humains, qui alors ne les comprendront pas davantage qu’un chien ne parvient à comprendre l’intelligence de son maître. Et c’est pourquoi il est d’autant plus indispensable de veiller à ce qu’elles poursuivent toujours à l’avenir un but essentiel, qui est le bien-être humain… alors même qu’elles n’ont jusqu’ici aucune idée de ce que signifie cette notion de bien-être humain !

Comment procéder ?

Il faudra être très clair sur les objectifs poursuivis par les machines et sur les modalités et incitations auxquelles elles réagiront, car il sera de plus en plus difficile à l’avenir de « débrancher » une machine qui poursuivra aveuglément les objectifs 10 qui lui auront été assignés, si nous réalisons – comme le roi Midas regrettant de voir son vœu se réaliser – que ces objectifs sont mauvais. Tout doit être mis en œuvre pour que les machines restent bénéfiques aux hommes. C’est la base de mes recherches. Je crois qu’il faut établir une autre définition de l’IA. Les outils et algorithmes que nous avons développés doivent être redéfinis.

C’est-à-dire ?

Bien que les machines soient capables de découvrir les préférences humaines à partir de  l’observation des conduites humaines, force est de constater que ces comportements, justement, sont très imparfaits. Nous sommes des êtres contradictoires, nous pensons et agissons selon des mécanismes psychiques très complexes et très difficiles à comprendre, et nous ne sommes pas toujours au clair sur ce que recouvre notre propre bien-être, tout comme sur les façons de l’atteindre. Nos préférences évoluent, se chevauchent ou se contredisent parfois : nous ne sommes pas faits d’une seule pièce ! Face à cela, comment une machine peut-elle satisfaire pleinement nos préférences ? Elle peut seulement prédire de grandes options préférentielles – consistant par exemple en ce que nous préférons rester vivants et physiquement intègres plutôt que de perdre un bras ou une jambe – et tenter de composer avec les différentes préférences existantes. Il faut des garanties que les machines demeurent bénéfiques aux humains et tout doit être mis en œuvre, depuis la théorie mathématique jusqu’aux applications les plus concrètes en passant par des comités d’éthique, pour qu’il en soit ainsi. C’est à cette seule condition qu’on pourra créer des machines plus intelligentes que nous.

Veiller à ce que la machine reste au service des hommes est un objectif noble, mais est-ce un objectif partagé par tous ?

Ce n’est pas une question de noblesse, mais de sécurité. La création d’une super IA pourrait assurer à ses détenteurs la domination économique de la planète. Sans compter l’avantage stratégique et militaire immense qu’elle leur conférerait. Il est donc essentiel que l’IA soit non seulement bénéfique à l’humanité, mais qu’elle profite aussi au plus grand nombre.

L’IA soulève donc aussi des questions d’ordre politique ?

Bien entendu ! Il y a des gens qui développent l’IA à des fins militaires, pour mettre au point des armes autonomes, des robots tueurs, etc. Tout le monde n’est pas animé par des motivations pacifiques. Conclure un partenariat mondial sur l’IA est donc un enjeu capital. La Chine ne s’est pas jointe jusqu’ici à cette démarche. La situation de la Russie est également à considérer.

La data est-elle le nouvel Eldorado ?

On parle beaucoup de la data, des promesses mirobolantes du big data. « Data is the new oil », dit-on. À quoi je réponds : « Snake oil! » (NDLR : remède de charlatan). Malgré tout ce que l’on raconte sur le sujet, je pense que l’importance stratégique des données ira en baissant. On en a déjà moins besoin qu’il y a quelques années pour développer de nouveaux algorithmes, par exemple en matière de reconnaissance faciale, d’établissement de cartes 3D, etc. C’est simpliste de penser qu’un pays très peuplé sera plus puissant que les autres uniquement parce qu’il pourra collecter davantage de données. Ce n’est pas la data qui a fait la force de Facebook ou de Google. La capacité à créer du lien ou à proposer de nouvelles fonctionnalités est beaucoup plus importante. De même que l’avantage du « first mover ».

L’IA constitue-t-elle une menace pour les libertés individuelles ?

Je pense que d’ici une dizaine d’années, un logiciel capable de lire et d’analyser toutes les pages du Web, tout ce qui a été écrit et mis en ligne, pourra être opérationnel. Bien sûr, un tel outil ne sera pas capable de comprendre dans toute leur subtilité des théories complexes et encore moins de les comparer entre elles, mais il sera en mesure de lire et d’intégrer très bien toutes sortes de documents historiques ou scientifiques. Ce sera une avancée considérable pour la connaissance, mais aussi une préoccupation en matière de surveillance. D’ores et déjà, il faut être conscient du fait que tout ce que nous communiquons via Internet est lu ou susceptible de l’être. À coups de logiciels espions et de techniques de surveillance imparables, nous pourrions aller vers une nouvelle Stasi. Je parle d’une « Stasi ultime » dans mon prochain livre, en référence à ce système de surveillance est-allemand réputé avoir été le plus efficace de l’Histoire – mais aussi le plus coûteux financièrement et humainement parlant. Quoi qu’il en soit, communiquer librement ses opinions peut devenir problématique, voire impossible, dans un système où chacun se sait surveillé ou susceptible de l’être.

Quel rôle pour l’Europe ?

Dans ce contexte de surveillance générale, la confidentialité et la sécurité vont devenir des préoccupations de plus en plus importantes, pour les individus comme pour les entreprises. Et dans ce domaine, l’Europe a une carte à jouer. Sa sensibilité sur cette question est aujourd’hui illustrée notamment par le RGPD. La problématique de la confidentialité de l’information et des données sensibles étant appelée à devenir centrale, l’Europe a de nombreux atouts pour prendre la tête de ce mouvement en faveur de la protection de la vie privée et de la sécurité économique. La France et la Grande-Bretagne ont historiquement de grandes références en matière de sécurité informatique. Les attentes des entreprises et des particuliers vont aller croissantes, et c’est un terrain sur lequel je crois que le Vieux Continent a vocation à offrir les meilleures réponses. Par ses savoir-faire, mais aussi par ses valeurs, ses traditions humanistes, son modèle de régulation.

Quelques mots sur l’initiative J.E.D.I. (Joint European Disruptive Initiaitive*), dont vous êtes membre ?

Je me félicite de cette démarche qui rassemble des acteurs d’horizons différents, stimule les idées nouvelles et audacieuses, et réhabilite la prise de risque dans les grands projets. Je trouve cette initiative bénéfique et bienvenue. L’IA étant un sujet prioritaire de J.E.D.I., je suis heureux d’en faire partie. Et ce d’autant plus que je crois à l’idéal européen ; inutile de vous dire que je n’étais pas favorable au Brexit.

Quelles sont à vos yeux les avancées les plus spectaculaires de l’IA et ses applications les plus préoccupantes ?

Le pire de l’IA ? Sans hésitation, les armes autonomes. Le meilleur ? Probablement la traduction automatique. Bien sûr, je suis fasciné par des inventions comme AlphaZero (NDLR : le logiciel de jeu de go et d’échecs produit par DeepMind). Mais les progrès les plus impressionnants sont pour moi ceux qui ont été réalisés dans les domaines de la reconnaissance visuelle et vocale et en matière de traduction. Sur tous ces points, nous sommes parvenus à un niveau très proche de ce qu’un humain peut réaliser ; mais je crois que nous allons encore beaucoup progresser, notamment dans le domaine de la traduction, donc en matière de compréhension interlinguistique et de  communication entre les hommes. Et puis il y a un autre chantier très prometteur, celui des assistants personnels intelligents.

Créativité et IA sont-elles incompatibles ?

Je ne suis pas de ceux qui sont persuadés qu’il sera à jamais impossible aux machines de devenir créatives. Y compris en matière artistique. Rien ne nous interdit de penser qu’elles pourront explorer différentes formes de musique, tester des mélodies, composer des musiques capables de nous émouvoir comme le font celles de musiciens humains. Même chose en peinture. Mais pourront-elles devenir conscientes – vraiment apprécier ce qu’elles auront créé ? Là, c’est une autre histoire, nous n’en sommes clairement pas là. Ces perspectives relèvent de la pure spéculation.

Retrouvez le 11ème magazines des Entrepreneurs