LA SINGULARITE EST-ELLE POUR DEMAIN ?
Alors que l’humanité se trouve au bord d’une révolution de l’information déclenchée par la technologie, l’ampleur, la portée et la complexité de l’impact de l’évolution de l’intelligence dans les machines ne ressemble à rien de ce que l’humanité a connu auparavant.
En conséquence, la vitesse à laquelle les idées, les innovations et les inventions émergent grâce à l’intelligence artificielle est sans précédent historique et perturbe fondamentalement tout ce qui se trouve dans l’écosystème humain.
La technologie a déclenché l’évolution de l’intelligence dans les machines et les liens entre les idées, les innovations et les tendances sont en train de nous mettre aux portes du phénomène tant discuté actuellement dans le milieu de l’Intelligence Artificielle : la Singularité.
La Singularité, c’est ce moment – probablement dans un avenir très proche selon les chercheurs – où les progrès de l’intelligence artificielle conduiront à la création d’une machine plus intelligente que l’être humain !
Indépendamment du fait que nous croyions ou non, cette perspective suscite de nombreuses inquiétudes de nombreuses incertitudes quant aux risques sécuritaires pour l’avenir de l’humanité : elle peut être vue comme la fin des civilisations humaines actuelles et le début d’une nouvelle organisation.
Selon le mathématicien et auteur Vernor Vinge, les humains deviendraient des formes de vie ayant une moindre influence sur le développement du monde, plutôt membres participants à un système que « pilotes dans l’avion ».
La possibilité et la date de survenue de cet évènement hypothétique fait toutefois l’objet de débats entre scientifiques. Plusieurs futurologues et transhumanistes l’attendent pour la 3ème décennie du XXIe siècle.
Qu’est-ce que la singularité ?
La Singularité technologique (ou Singularité) est l’hypothèse selon laquelle l’invention de l’intelligence artificielle déclencherait un progrès technologique si rapide que cela dépasse la capacité des humains à la contrôler ou à la prédire, à la comprendre et à réagir à temps, et qui induirait des changements imprévisibles sur la société humaine.
La singularité affirme que lorsque la technologie progressera à un certain niveau, elle pourra entrer dans un cycle récurrent d’auto-amélioration. Cela conduirait à une explosion de l’intelligence réduisant à néant toute l’intelligence humaine combinée conduisant à une ère extrêmement instable.
En mathématiques, le terme singularité fait référence à un point pour lequel un objet mathématique donné n’est pas défini (par exemple, f (x) = 1 / x à x = 0). Les partisans de la singularité technologique estiment que les algorithmes d’IA atteindront éventuellement ce stade et transformeront la société.
(source : Medium corporation)
Si on en croit Ray Kurzweil, le «père de l’intelligence artificielle», Chercheur au MIT et Futurologue, la singularité se produira en 2045. Si nous écoutons plutôt Louis Rosenberg, Inventeur et PDG de la société Unanimous AI, spécialisée en Intelligence Artificielle, le jour arrivera un peu plus tôt, probablement en 2030.
Patrick Winston, ex Professeur au MIT qui en dirigé le laboratoire d’Intelligence Artificielle, prédisait l’évènement pour 2040, un peu plus proche de la date projetée par Ray Kurzweil.
Bien qu’il ne puisse y avoir de calendrier clair ou de consensus sur le moment où la super intelligence est susceptible d’être réalisée, une chose est claire: le parcours troublant de la singularité technologique nous oblige à réfléchir sérieusement à ce que nous voulons en tant qu’espèce, car l’IA n’ayant pas, en particulier, dans ses paramètres d’être favorable aux humains, le défi consiste à évaluer si la singularité induite par l’intelligence artificielle permettra de favoriser leur propre survie par rapport à celle de l’être humain ou pas !
Histoire de la singularité
Même si le concept de singularité ne s’est développé qu’au cours des deux dernières décennies du XXe siècle, l’origine du terme remonte en fait aux années 1950: déjà, Alan Turing, célèbre mathématicien et pionnier de l’informatique moderne, se posait la question suivante en 1950, de savoir si « Les machines pouvaient penser? »
Illustration du Test de Turing
En 1965, Irving John Good – statisticien Anglais expert en probabilités, décédé en 2009 – décrit le concept de singularité comme l’arrivée d’intelligences artificielles générée par une première IA amorçant le phénomène :
« Supposons qu’une machine supra-intelligente soit une machine capable de dépasser largement un humain, aussi brillant soit-il, dans tous les domaines intellectuels. Comme la conception de ces machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures ; ce qui amènerait immanquablement à une « explosion d’intelligence », où l’intelligence humaine serait très vite dépassée. De ce fait, l’invention de la première machine supra-intelligente est la dernière invention que l’Homme aurait besoin de réaliser puisque la machine prendrait le relais. »
Le concept de « singularité technologique » fut réintroduit en partie grâce à Vernor Vinge – Auteur de science fiction –, qui a commencé à en parler dans les années 1980, où il postulait, dans ses articles, en 1993, que, « d’ici trente ans, l’humanité aurait les moyens de créer une intelligence surhumaine mettant un terme à l’ère humaine ».
Sur quelles bases scientifiques se baserait t-elle ?
Pourquoi certains croient-ils que la singularité est proche?
Le principal responsable est la loi de Moore. La loi de Moore stipule que le nombre de transistors dans un circuit intégré double tous les deux ans environ.
Raymond Kurzweil, futuriste de renom et directeur de l’ingénierie de Google, a proposé des théories étendant la loi de Moore à des formes de calcul autres qu’informatiques, qui suggèrent que les phases de croissance exponentielle du progrès technologique feraient partie de motifs visibles à travers toute l’histoire humaine et même avant, dès l’apparition de la vie sur Terre, en prenant en compte sa complexification biologique.
Loi de Moore – Evolution du nombre de transistor par circuit intégré.
(source Bedir Tekinerdogan)
Les chercheurs font le parallèle avec la naissance de la vie biologique, qui a émergé de l’évolution chimique, il y a 3,5 milliards d’années, grâce à une combinaison « aléatoire » d’éléments simples et sans vie (c’est selon les acceptions) qui se sont progressivement combiné et ont déclenché l’explosion d’espèces qui peuplent la planète aujourd’hui.
Les chercheurs en IA font le parallèle avec La singularité technologique, qui serait un phénomène comparable, peut être sur le point de se produire
La puissance informatique des ordinateurs en évolution rapide dépassera celle du cerveau humain même le plus intelligent et le plus évolué, et à mesure que les algorithmes d’apprentissage automatique s’améliorent rapidement, la croissance exponentielle de l’intelligence machine continuera à devenir singulière. Ensuite, la super intelligence artificielle sera au coin de la rue.
Comme pour la vie biologique, ce saut crucial entre une machine puissante et la vie artificielle comporterait un élément aléatoire, selon les chercheurs. Et bien que nous ne puissions peut-être pas prédire avec exactitude quand, toutes les preuves suggèrent que la singularité se produira.
Débat et Projections
Se posent alors des questions d’ordre philosophique, que certains poussent de plus en plus loin:
- L’« humain » est-il dépassé, et y a-t-il un mal à accepter ses limites naturelles ?
- Y a-t-il un mal à vouloir s’améliorer ?
- Peut-on raisonnablement refuser le téléphone portable, dans notre société, et quelles en sont les conséquences ? (et on peut remplacer pour l’exemple l’outil téléphone portable par tout autre gadget à se greffer en permanence pour augmenter les capacités humaines
La grande question que se posent tous les chercheurs en Intelligence Artificielle est : « Quand allons-nous atteindre la singularité ? »
La grande majorité des prédictions s’accordent pour la situer avant 2100 (près de 62% de chercheurs questionnés par la société EMERJ).
Certains la voient avant 2060 (45%) et d’autres après 2060 (34%). Les 21% restants estiment qu’il est peu probable que la singularité se produise.
Pour Ray Kurzweil, celle-ci devrait être atteinte d’ici 2045. Pour Louis Rosenberg, PhD, inventeur, PDG et scientifique en chef de l’IA unanime, celle-ci arriverait même un peu plus tôt, en 2030 !
Enquête de la société EMERJ en 2016
(source : Medium corporation)
Les Optimistes du concept – Les Avancées promises
D’après l’idéologie transhumaniste dont l’entrepreneur et directeur de l’ingénierie de Google, Ray Kurzweil est le principal théoricien, la singularité technologique ressemble davantage à une promesse eschatologique qui prédit une transformation profonde et radicale des sociétés humaines grâce au développement surprenant de l’intelligence artificielle (IA).
Les dynamiques vertigineuses des IA associées aux progrès dans les champs des nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) conduiront probablement pour les transhumanistes à la fusion de l’homme et de la machine, de l’union du biologique à la technologie dont les effets pratiques seront de résoudre les problèmes humains les plus complexes (moraux, culturels, économiques, politiques, etc.) et même d’éradiquer la mort !
La fusion effective de l’homme et de l’intelligence artificielle annoncerait la naissance d’une nouvelle humanité qui bénéficierait des capacités analytiques d’un SuperOrdinateur et qui serait débarrassée des inconvénients du corps biologique
«Il s’agit bien plus que d’une autre révolution industrielle. C’est quelque chose qui transcende l’humanité et la vie elle-même. » déclare Schmidhuber, cofondateur et scientifique principal de la société d’intelligence artificielle NNAISENSE, directeur du laboratoire suisse d’intelligence artificielle IDSIA, et présenté par certains comme le «père de l’intelligence artificielle» et défendeur de la théorie, au même titre que Ray Kurzweil.
Les Détracteurs : Les Risques Avancés
Le principal risque avancé par les détracteurs de cette éventualité est que l’humanité perdrait le contrôle de son destin.
La notion de singularité technologique (ou super-intelligence de machine) remonte au moins au pionnier de l’intelligence artificielle, Ray Solomonoff – qui, en 1967, avait prévenu: « J’ai le sentiment que la réalisation de l’intelligence artificielle sera un événement soudain. À un certain stade du développement de la recherche, nous n’aurons aucune expérience pratique de l’intelligence artificielle de niveau sérieux: environ un mois plus tard, nous disposerons d’une machine très intelligente et de tous les problèmes et dangers liés à notre inexpérience ».
Plus récemment, le célèbre physicien théoricien, Stephen Hawking, a relancé le débat sur la question de savoir si notre recherche d’une intelligence artificielle améliorée aboutirait un jour à des machines pensantes qui nous succéderaient. Il a fait part de son inquiétude face au développement de machines qui nous surpasseraient : «Le développement de l’intelligence artificielle complète pourrait sonner le glas de la race humaine. »
L’auteur de science-fiction Vernor Vinge est même convaincu, dans son essai « La venue de la singularité technologique », que la singularité signifierait la fin de l’ère humaine !
Les humains délèguent la responsabilité aux machines pour des raisons telles que l’amélioration du temps, des coûts et de la précision. Mais les cauchemars qui pourraient survenir en ce qui concerne les dommages causés par, par exemple, un véhicule sans conducteur, incluraient les aspects juridiques, les assurances et l’attribution de responsabilité.
D’autre part, il peut s’agir de systèmes de contrôle du trafic aérien, de missiles guidés, de camions sans conducteur sur les sites miniers ou des récents essais de voitures sans conducteur sur nos routes.
Comme scénario possible, peut-être une parole convertie mal en texte, aggravée par une mauvaise traduction automatique, conduisant à une corruption subtile des instructions de la machine, conduisant à un bourbier
Les pessimistes pensent que ce système conduira inévitablement à un désastre.
Nick Bostrom, philosophe suédois et auteur du livre «Superintelligence» met en garde contre les risque de systèmes d’informatique trop puissants: « Lorsque nous créons la première entité super-intelligente, nous pouvons commettre une erreur et lui donner des objectifs qui l’amèneront à anéantir l’humanité. Par exemple, nous pourrions, lui demander de résoudre un problème mathématique, et elle obéirait en transformant toute la matière du système solaire en un calculateur géant, tuant ainsi la personne qui a posé la question. En gros, il dit que la boîte noire ferait naïvement à peu près tout pour maximiser ses fonctions telles qu’elles lui auraient été attribuées.
Il utilise un exemple plus concret – et amusant du reste – d’intelligence artificielle visant à maximiser la production de trombones:
La Super-Intelligence innoverait de meilleures techniques pour optimiser le nombre de trombones. À un moment donné, elle pourrait transformer «d’abord la totalité de la Terre, puis des parties croissantes de l’espace, en installations de fabrication de trombones».
Les sceptiques
Les hypothèses relatives à la Singularité sont régulièrement critiquées pour leur manque de solidité scientifique.
Theodore Modis rappelle par exemple qu’une courbe exponentielle ne débouche sur aucune singularité, mais continue à croître à l’infini : « Ce que je veux dire est que Kurzweil et les singularistes sont impliqués dans une sorte de para-science, qui diffère des vraies sciences en termes de méthodologie et de rigueur.
Ils ont tendance à négliger les pratiques scientifiques rigoureuses telles que se concentrer sur les lois naturelles, donner des définitions précises, vérifier les données méticuleusement, et estimer les incertitudes. […] Kurzweil et les singularistes sont plus des croyants que des scientifiques ».
L’homme d’affaires Américain Jeff Hawkins, qui est auteur d’un livre sur La théorie de l’Intelligence, a répondu à cette théorie dans le rapport spécial IEEE Spectrum sur la singularité:
« Le terme Singularité appliqué à des machines intelligentes se réfère à l’idée que lorsque des machines intelligentes pourront concevoir des machines intelligentes, plus intelligentes qu’elles, cela provoquera une croissance exponentielle de l’intelligence des machines conduisant à une singularité de l’intelligence à l’infini (ou du moins immense).
La croyance en cette idée se fonde sur une conception naïve de ce qu’est l’intelligence. Par analogie, imaginez que nous ayons un ordinateur qui pourrait concevoir de nouveaux ordinateurs (puces, systèmes et logiciels) plus rapides que lui-même. Est-ce qu’un tel ordinateur produirait infiniment des ordinateurs ou même des ordinateurs plus rapides que ce que les humains pourraient construire d’eux-mêmes ?
Non, cela pourrait accélérer le rythme des améliorations pour un certain temps, mais à la fin il y a des limites de taille et de vitesse. Nous arriverions au même résultat, nous aurions tout simplement été un peu plus rapide en prenant des risques. Et il n’y aurait eu aucune singularité. »
D’autres auteurs, remettent en question l’idée d’accélération technologique en déclarant que le concept de singularité ne tient pas compte des besoins et des ressources disponibles en énergie et que l’Homme a toujours créé des outils pour améliorer l’économie et la société, mais que ces améliorations de plus en plus nombreuses ne peuvent dépasser l’intérêt de la société concernée, qu’elles ne seront toujours que des moyens de plus en plus développés pour atteindre les buts de celle-ci : Une intelligence artificielle serait l’un de ces outils que l’Homme crée pour satisfaire ses besoins.
Par conséquent, quand bien même l’amélioration exponentielle de la technologie se prolongerait dans les années à venir, elle aurait une limite absolue qu’elle ne dépasserait jamais : les besoins de la société qui, eux, ne sont pas exponentiels.
Que faut-il en penser ?
Cela nous amène à une question importante: parmi les technologies en évolution rapide et convergentes, lorsque l’explosion de l’intelligence semble inévitable, comment les humains vont-ils faire face aux machines super intelligentes?
Il y a ceux qui croient que pour surmonter la super intelligence artificielle, les méthodes émergentes peuvent être utilisées pour améliorer l’intelligence humaine et créer un surhumain doté d’une super intelligence.
En théorie, il est probablement possible de créer un surhumain doté d’une super intelligence grâce à l’amplification de l’intelligence du cerveau humain et / ou à l’augmentation de l’intelligence (grâce aux progrès de la bioingénierie, du génie génétique, des médicaments nootropes, du téléversement de l’esprit et même des interfaces cerveau-ordinateur directes, assistants d’IA et plus encore. ), la réalité est l’évolution du cerveau humain et l’intelligence humaine est une entreprise très complexe comportant trop d’inconnues, de dépendances et de variables.
L’idée que les humains ne sont que des calculatrices semble anti-humaine. Personne n’a la moindre idée de ce qui se passe dans un cerveau humain…et si une machine, aussi intelligente soit-elle, puisse un jour en dépasser les fonctions.
Mais, afin de parer toute éventualité, certains pensent qu’il il conviendrait d’examiner plus avant la possibilité d’une évolution du cerveau et de l’intelligence humaines afin de suivre le rythme de la super intelligence artificielle.
Aujourd’hui, il n’existe aucun moyen de calculer quand et comment cette évolution de l’intelligence se produirait dans les machines, mais une chose est claire: elle modifierait les principes fondamentaux de la sécurité et la réponse à cette éventualité se doit d’être intégrée et globale.
Que la promesse ou le péril l’emporte définira et déterminera l’avenir de l’humanité.
Des questions philosophiques se posent, dès lors…
- Peut-on accepter toute évolution technologique, ayant un impact sur la définition de ce qu’est l’humanité ?
- Dans quelle mesure pouvons-nous vraiment faire confiance à des machines ayant de grandes responsabilités pour faire un meilleur travail que nous?
- Peut-on accepter une évolution technologique, ayant un trop grand risque de perte de contrôle de la société humaine ?
- doit-on remettre volontairement ou non notre pouvoir de décision en tant qu’espèce humaine à une intelligence artificielle, qui, par définition ; ne pourra être contrôlée de manière fiable et sécurisée ?
Sources
- Wikipédia – Singularité technologique
- David Dowe – Is Stephen Hawking right? Could AI lead to the end of humankind? https://phys.org/news/2014-12-stephen-hawking-ai-humankind.html?utm_source=TrendMD&utm_medium=cpc&utm_campaign=Phys.org_TrendMD_1
- Branko Blagojevic – AI, Optimists vs Pessimists and Why The Singularity Isn’t Near https://medium.com/ml-everything/ai-optimists-vs-pessimists-and-why-the-singularity-isnt-near-5d3a614dbd45
- Dylan Azulay / EMERJ – When Will We Reach the Singularity?
Auteur : Ilham Ouzzani / MBA MCI / Digital Marketing Management /Sept 2019.
Ilham Ouzzani (@IlhamOuzzaniB)
Disclaimer :
Some of the visuals may be subject to copyright. Please notify in case, so that it’s addressed. Thank you.
Certains visuels pourraient être soumises à droits. Merci de me le signaler si besoin pour rectification.