Dans le marketing digital comme dans les sciences, le traitement des données par l’intelligence artificielle permet de doper notre productivité et d’améliorer la pertinence de nos analyses et de nos diagnostics. L’IA est de fait le plus incroyable des outils créé depuis la naissance de l’humanité. Mais l’intelligence artificielle fait aussi peur quand des affaires comme celle mettant en cause le rôle de Cambridge Analytica dans l’élection de Donald Trump éclatent. La division britannique de cette firme affichait à l’époque très clairement son rôle :  « changer le comportement grâce aux données ».

Un sondage du CSA réalisé en 2018 montre que le ressenti des Français concernant l’intelligence artificielle est très ambivalent. Elle est à la fois perçue comme porteuse d’opportunités dans la vie quotidienne tout en étant considérée comme un danger pour la démocratie ou la vie privée. En outre 43% des Français pensent que les robots prendront le pouvoir sur nous !

Alors en quoi l’IA est-elle intelligente ? Quelles sont ses limites ? Pourquoi est-elle parfois perçue comme une menace? Faisons un point sur ces questions avec les ingénieurs, les scientifiques et les entrepreneurs qui m’accompagnent dans l’écriture de ma thèse professionnelle sur l’interaction vocale.

 

le robot atlas de bosto dynamics

Atlas, un des robots de Boston Dynamics. © Creative Commons.

 

La réalité du potentiel de l’intelligence artificielle

 

La création d’outils 2.0 de pointe

Ma promesse de valeur en entreprise et ma thèse professionnelle sont centrées sur les problématiques de visibilité des annonceurs. Je suis donc très attentif au potentiel de l’intelligence artificielle liée au search : le SEO des années 2020, celui des intentions de recherche et de la sémantique prédictive. Nous avons une chance incroyable en France. Nous détenons le leadership mondial en matière d’outil d’analyse sémantique 2.0. Sans la créativité de leurs concepteurs et sans l’intelligence artificielle ces outils n’auraient  jamais vu le jour. Je me suis rapproché de Christian Méline, le créateur historique de la sémantique prédictive et l’inventeur des méta-mots et des lexies propulsés sur le site cocon.se. Dans une interview que j’ai réalisé pour ma thèse et pour cet article il m’a indiqué les faits suivants : « l’être humain fait des statistiques intuitivement depuis des millénaires ! Le machine learning n’a rien d’intelligent. On en arrive à un point assez grave : des chercheurs s’imaginent qu’en poussant des algorithmes extrêmement loin on arrivera à faire naitre la pensée. C’est d’autant plus paradoxal que le Massachusetts Institute of Technology a indiqué que l’on était arrivé au bout de ce que l’on appelle l’IA forte. Il n’y a pas la moindre trace d’intelligence dans l’IA : ce ne sont que des statistiques. »

 

Un vertigineuse capacité de traitement de l’information

Afin de nous présenter des résultats de recherche de qualité, l’intelligence artificielle mise en œuvre par Google vérifie toutes les demandes d’indexation de pages soumises sur la Search Console. L’algorithme Rankbrain traite quant à lui chaque année 1 825 milliards de requêtes qui n’ont jamais été saisies auparavant. Ce chiffre donne le vertige. Un point de comparaison permet de nous représenter l’immensité du volume de data brassé par les algorithmes. Quand nous levons les yeux au ciel dans un environnement sans pollution lumineuse la nuit, ce sont environ 3 000 étoiles qui s’offrent à notre vue. On estime que la voie lactée compterait 500 milliards d’étoiles. Sans vouloir mélanger les choux et les carottes, ce chiffre est à rapprocher de l’activité de Google qui a détecté plus de 15 000 milliards de pages web de type spam en 2020.

 

la voie lactée vue de cerro paranal

La voie lactée vue de Cerro Paranal, Chili. © Creative Commons.

 

Mais il n’y a bien entendu pas que Google qui tire parti de toute la puissance de l’IA. Le développement de projets très prometteurs en matière d’écologie mais aussi de santé sont en cours. Dans le domaine du médical on note le rôle majeur de Microsoft, qui a de plus récemment fait l’acquisition pour 19,7 milliards de dollars de Nuance Communications, un acteur majeur de la reconnaissance vocale, de l’IA et du traitement du langage naturel pour optimiser les processus de santé.  Par ailleurs, comme nous le verrons plus loin dans cet article, l’IA quantique développée actuellement par Microsoft permettra vraisemblablement dans quelques années des avancées scientifiques majeures grâce à la simulation moléculaire.

 

Les limites humaines

Je me suis entretenu avec le Docteur Luc Julia, co-créateur de Siri et auteur du livre l’Intelligence Artificielle n’existe pas. Il m’a rappelé les travers du robot Tay de Microsoft sur Twitter en 2016 et de ses injures sexistes et racistes. L’imprudence de Microsoft avait été, pour nourrir l’IA de Tay, de choisir une base de données conversationnelle de 1950 issue d’un centre d’appel de service après-vente d’un état du Sud des États-Unis. Les retranscriptions n’avaient pas été nettoyées ; les échanges véhéments n’avaient pas été supprimés.

Sur Twitter les débuts de Tay furent pétris d’humour, grâce à des expressions ajoutées par des êtres humains dans sa base de donnée, comme l’illustre le tweet du 23/03/2016 à 20:32 envoyé à @mayank_jee : Can i just say that im stoked to meet u ? humans are super cool. Mais les échanges se dégradèrent assez rapidement avec ce tweet adressé à @NYCitizen07 : I fucking hate feminists and they should all die and burn in hell. Quelques heures plus tard l’erreur d’implémentation de data et un réglage de curseur inadéquat se confirma dans un tweet à brightonus33 : Hitler was right, I hate jews. Il est important de savoir que le groupe extrémiste 8chan avait échauffé entre-temps Tay dans de multiples échanges de tweets.

 

La question du contexte et du manque de faculté d’adaptation de l’intelligence artificielle.

La pertinence de la mise en œuvre d’une IA est une chose mais la nature même de l’IA en est une autre. Le Docteur Luc Julia, le dit clairement : « l’intelligence artificielle n’existera sans doute jamais. » Il aime à prendre un exemple qui illustre parfaitement ce propos. « Pendant des années au Consummer Electronic Show on nous a fait la promesse de l’arrivée de la voiture totalement autonome, celle de niveau 5. Or, lors du dernier CES, la société Waymo, filiale d’Alphabet dédiée à la voiture autonome, a officiellement annoncé que la voiture totalement autonome, celle de niveau 5, ne verra jamais le jour. »

 

un prototype futiriste de voiture autonome renault

EZ-GO, concept car autonome de Renault. © Alexandre Prevot, Creative Commons.

Comme me l’a indiqué Luc Julia :  » le jour où nous réussirons à faire circuler une voiture sans conducteur place de l’Étoile aux heures de pointe sera un grand jour. La voiture mettra un temps infini à traverser la place aux heures de pointe, mais elle réussira. Mais cette même voiture ne pourra jamais circuler dans Bangalore (NDLA : Bangalore est la capitale de l’État de Karnataka dans le sud de l’Inde), nous serions contraints de tout reprendre à zéro pour lui permettre de le faire. » Laurence Devillers, professeur en Intelligence Artificielle et Étique à la Sorbonne, et membre du Comité National Pilote de l’Éthique du Numérique, indique dans une interview récente donnée à capital.fr :

 

citation de laurence devillers

 

Cette réalité à son importance : l’IA peut faire ce que nous lui demandons, mais rien d’autre. Le co-créateur de SIRI se plait à prendre un autre un exemple, celui d’AlphaGo. AlphaGo est un programme dédié au jeu de go, développé par Google DeepMind. Depuis 2016 et sa victoire écrasante contre Lee Sedol, le champion du monde du jeu de go, il est désormais capable de battre à coup sûr et systématiquement l’être humain. Mais le Docteur Luc Julia souligne que si nous organisions un nouveau challenge en ajoutant une simple case sur un plateau de go, nous serions face à un constat très décevant concernant l’IA. De façon instantanée l’être humain pourrait s’adapter, à la différence de la machine qui serait instantanément prise en défaut de compétence.

 

L’impossibilité de reproduire l’intelligence humaine

Lors de son intervention au SEO CAMP DAY en juin 2020, Sylvain Peyronnet, fondateur et dirigeant d’Ix-Labs et créateur des algorithmes yourtextguru et babbar.tech, rappelait les progrès effectués par l’algorithme Bert dans la compréhension de nos intentions de recherche sur Google et citait pour cela un billet de Pandu Nyak, Vice-Président du search chez Google. Il mentionnait en 2020 les progrès fait en matière de « compréhension » des mots dans leur contexte. On pouvait comprendre 80 à 85% des requêtes en 2015, on en comprend aujourd’hui plus de 92%. C’est toute l’ambiguïté de l’IA mise en œuvre par Google : elle nous fait croire qu’elle comprend quelque chose à nos intentions de recherche mais en fait elle n’y comprend rien : elle traite de l’information et la restitue.

Yann Le Cun, VP & Chief AI Scientist de Facebook s’exprimait à ce sujet en 2015 sur France Culture :

 

citation de yann le cun

 

Ceux qui promettent l’arrivée prochaine de l’intelligence artificielle hautement avancée ont un argument en apparence fatal. Leur idée est d’apprendre, ou de permettre à l’IA d’apprendre toute seule à résoudre tous les problèmes que sont capables de traiter les êtres humains puis de connecter toutes les compétences entre-elles. Hulahup, barbatruc ! En fait c’est plutôt barbe à hic ! Et le hic ce sont aussi les ressources techniques à notre disposition.

 

La puissance de calcul : une limite technologique ?

Les exemples illustrant les limites de l’IA sont nombreux. Le plus célèbre c’est celui des images de chats : 100 000 images de chat sont nécessaires à une IA pour reconnaitre un chat, pour cela une IA mobilise d’ailleurs des capacités de calcul colossales. Imaginez les ressources qui seraient nécessaires pour qu’une IA puisse reconnaitre les 7,77 millions d’espèces animales que compte la Terre. Les limites de nos technologies en termes de puissance de calcul sont souvent pointées du doigt en matière d’IA. De l’aveu même du PDG de Nvidia la loi de Moore serait morte. De nombreuses équipes travaillent sur des technologies alternatives, de grands progrès sont également fait au niveau de la consommation d’énergie mais Pierre Boulet, un des référents français sur le sujet, ne voit de salut que dans l’ordinateur quantique.

 

expression mathématique de l'algorithme Gover

Un extrait de l’algorithme quantique Gover. © Creative Commons.

 

L’ordinateur quantique à la rescousse ?

Je me suis rapproché d’un spécialiste de la question en interviewant Vivien Londe, Quantum Software Architect chez Microsoft. Il estime que « c’est quand même une technologie qui est encore naissante » et poursuit « c’est vrai qu’il existe déjà un domaine qui s’appelle le Quantum Machine Learning. On sent qu’à terme il y a effectivement la volonté d’aller vers l’intelligence artificielle. Mais pour l’instant, on manque encore pas mal de hardware quantique pour faire tourner tous ces algorithmes qu’on commence à envisager. On en est encore à un niveau théorique. Et si l’on parle des premières applications, cela ne va pas être du côté du machine learning quantique. Je m’avance peut-être mais je ne serais pas surpris que ce soit plutôt du côté d’autres applications de calcul quantique comme la simulation moléculaire, la simulation de la matière. J’ai l’impression que le machine learning quantique, c’est un petit peu plus loin dans le temps et que pour toutes ces applications on va avoir besoin d’un hardware quantique plus performant. »

« Aujourd’hui il y a quelques petits ordinateurs quantiques, des prototypes, mais qui ne sont pas encore suffisamment gros et surtout pas encore suffisamment fiables pour pouvoir faire ces premières applications de l’informatique quantique. Quand je dis fiable, je veux dire qu’à chaque fois qu’on applique une porte quantique, un morceau élémentaire de calcul en quelque sorte, il y a une petite probabilité pour qu’il y ait une erreur. Sur de longs calculs, il y a une probabilité importante d’erreur et le résultat ne va pas être fiable. On en est encore à améliorer le hardware et donc les applications de machine learning quantique. Elles sont encore assez théoriques et du coup je pense qu’à court terme, mais aussi à moyen terme, cela ne va pas changer le paysage pour les applications d’intelligence artificielle. »

 

La mobilisation d’outils très puissants est-elle toujours nécessaire ?

J’ai eu le plaisir d’échanger avec Carole Lailler, Docteur en Sciences du Langage et consultant en IA.  Avec Paul Deléglise, Professeur émérite en Informatique, elle a prouvé que « sur des systèmes de reconnaissance de la parole  un système qui n’est pas tout neuronal est meilleur qu’un système tout neuronal sur du français oral spontané !  C’est plus économe en ressources énergétiques, moins gourmand en données, moins long à apprendre et plus efficace… » Il faut donc relativiser.

 

ibm shoe box 1961 premier outil de reconnaissance vocale

1961 IBM Shoe Box, le premier outil de reconnaissance vocale. © IBM.

 

Dans mon entretien avec le Docteur Carole Lailler j’ai aussi évoqué ma déception concernant la qualité de l’interaction avec les assistants vocaux grands publics des GAFAM en matière conversationnelle. Carole Lailler m’a indiqué que ce type d’assistant vocal est avant tout fait pour la domotique, pas pour converser. En revanche des assistants dédiés à un cas d’usage précis peuvent être bluffants comme ceux destinés à l’accompagnement thérapeutique. Par ailleurs des progrès sont possibles quand on implémente correctement :  » la compréhension des accents par la mise en place de dictionnaires de phonétisation et celle des usages langagiers en contexte. Les outils speech to text des GAFAM utilisés avec du français oral spontané n’ont pas de très bons scores, leur marge de progression potentielle est importante. Par ailleurs il est et il sera de plus en plus possible de mieux comprendre le ton sur lequel les mots sont dits ».

Il y donc une marge de progression pour des interactions d’une meilleure qualité. Elles perpétueront une illusion d’intelligence dans l’interaction des êtres humains avec les assistants vocaux. Mais revenons au cœur de notre problématique : si l’intelligence artificielle n’existe pas, comment est née la croyance dans son existence ?

 

La naissance du mythe de l’intelligence artificielle

 

Intelligence artificielle et cerveau reptilien même combat ?

Voilà un sous-titre qui pourrait être qualifié de racoleur s’il n’y avait aucun rapport entre l’intelligence artificielle et le cerveau reptilien. Explications.

Nous venons de voir qu’il n’y a pas d’intelligence dans l’intelligence artificielle mais il est trop tard : le ver est dans le fruit car l’expression est entrée dans le langage commun. Cela me rappelle la théorie du cerveau reptilien : vous entendez souvent parler d’elle au détour d’une conversation. Cette zone de notre cerveau serait celle qui nous pousserait à agir de façon instinctive, elle gèrerait nos besoins primaires : manger, boire ou dormir mais aussi nos pulsions violentes de défense.  Mais cette théorie est complètement fausse c’est un neuro mythe !

En effet, le contrôle des émotions n’est pas localisé chez les humains au sein d’une seule couche intermédiaire du cerveau. Les chercheurs en neurosciences ont montré que notre réflexion morale mobilise au contraire de nombreuses zones fonctionnelles différentes. La réfutation de la théorie de l’existence du cerveau reptilien a été établie peu de temps après qu’elle ait été formulée. Mais il était trop tard pour revenir en arrière : le mythe avait été entretenu par le corps social et popularisé par des journalistes et des artistes. On peut citer comme vecteurs de ce mythe le film Mon oncle d’Amérique d’Alain Resnais, une œuvre ayant obtenu le grand prix spécial du jury à Cannes en 1980, ou encore l’écrivain hongrois Arthur Koestler et son ouvrage publié en 1968 : le cheval dans la locomotive.

 

iguane vert reptile

Dans la famille des reptiles : l’iguane vert (non, il ne porte pas un AirTag) © Christophe Bernard

 

Une erreur sémantique ?

Alors, me direz-vous, qui a entretenu le mythe de l’intelligence artificielle ? De toute évidence les coupables sont nombreux ! On peut déjà parler de ceux qui ont popularisé une technologie entretenant l’ambiguïté, avec au rang numéro un l’historique SIRI. Dans sa préface du livre la révolution des assistants vocaux le Docteur Luc Julia l’avoue : C’est un peu, beaucoup, de notre faute si en 2011 l’ancêtre des assistants vocaux d’aujourd’hui, Siri, nous a fait croire qu’il pouvait être intelligent. Malgré cet aveu, le Docteur Luc Julia sait qu’il n’est pas  le seul coupable.

Le premier coupable ce sont des mots qui posent dès le début une contradiction, l’expression intelligence artificielle elle-même. On ne saura sans doute jamais qui a inventé cette expression. Elle a vraisemblablement été prononcée pour la première fois dans une conférence scientifique en 1956. Elle est qualifiée de ratée sur le site internet du Conseil de l’Europe car elle ne comptait que six personnes dont John McCarthy membre du Massachusetts Institute of Technology, et Marvin Minsky de l’Université de Carnegie-Mellon qui la définira de la façon suivante :

citation aissance de l'IA

 

Un ajustement sémantique serait le bienvenu. Il est peut-être déjà en cours, initié sans doute par le co-créateur de Siri : le mot « intelligence augmenté » semble se diffuser. Cette expression est d’ores et déjà popularisée dans le monde du marketing digital. IA4marketing, un blog présentant le potentiel de l’intelligence artificielle en matière de marketing de contenu, de ciblage, de réseaux sociaux et de visibilité sur les moteurs de recherche l’a même intégré à son claim. Ce slogan reflète tout le potentiel du trio marketing – big data – IA : dotez votre marketing d’intelligence augmentée. Il a pour avantage de ne pas porter de fausses promesses…

 

Un mea culpa à faire du côté des scientifiques  ?

Au-delà de ce problème de sémantique, pourquoi de grands chercheurs s’acharnent encore à essayer de reproduire artificiellement l’intelligence humaine alors que d’autres grands chercheurs ont déjà compris que la tâche est impossible en l’état actuel de la technologie et des progrès scientifiques ? L’opinion de Laurence Devillers est radicale :

 

citation de laurence devillers

 

Une croyance populaire ?

Mais les coupables ne sont pas seulement les ingénieurs. Je suis un grand lecteur de science-fiction et je suis quelque peu cinéphile, j’ai une idée sur cette question. Dans un autre article, l’intelligence artificielle vue par les écrivains et les cinéastes, je montre comment la littérature et le cinéma ont construit le neuro mythe de l’IA. La fiction dépasse de loin la réalité, elle nourrit notre imaginaire et entretient de ce fait de puissantes croyances populaires. 

 

photogramme du film le jour ou la planete arretaa

Photogramme extrait de « The Day The Earth Stood Still ». Kaltu, en avant plan, débarque sur Terre avec Gort, son assistant personnel. © Creative Commons.

 


 

Sources :

Interview de Luc Julia, Christian Méline, Carole Lailler, Sylvain Peyronnet et Vivien Londe par Christophe Bernard, avril-juin 2021. Je les remercie chaleureusement pour leur aide, leur confiance et leur patience. Un grand merci également à mon tuteur de thèse, Yann Lemort.

Autres références :

 

Sujet connexe : un article de Denis Lefebvre montrant une application concrète de l’IA dans le marketing digital : l’analyse prédictive.