Vous entendez parler de plus en plus de l’intelligence artificielle, de ses progrès et de ses avantages. Mais connaissez-vous les limites de l’intelligence artificielle ? Ou quelques dérapages de l’IA ? 

Les intelligences artificielles font partie de notre quotidien depuis quelques années. Elles sont utilisées dans plusieurs secteurs du monde du travail et dans divers domaines tels que la santé, la finance et le marketing, etc., particulièrement dans les services après-vente ou d’autres services de recommandations.

Depuis l’année 2021, l’IA a pris une nouvelle dimension, avec notamment l’apparition de certaines technologies très avancées qui permettent de réaliser des diagnostics automatiques et améliorés en médecine, de conduire des voitures plus sûres et autonomes, de dessiner nos idées, ou qui servent de moteur de recherche ou même d’ami pour discuter…

De nombreuses entreprises investissent massivement dans l’intelligence artificielle et l’automatisation pour réduire leurs charges et augmenter leur productivité, ou même supprimer les erreurs humaines. Toutefois, l’intelligence artificielle présente encore de nombreuses limites qu’il est nécessaire de prendre en compte. Découvrez quelques-unes des principales limites de l’intelligence artificielle.

Les limites de l’intelligence artificielle : pourquoi une IA fait-elle des erreurs ?

Les limites de l’IA sont aujourd’hui les raisons pour lesquelles une IA fait des erreurs, lorsque ces premières sont atteintes.

Tout d’abord, il est important de rappeler que l’IA peut être utilisée pour automatiser des tâches banales, mais elle ne peut pas remplacer le jugement et la prise de décision humaine ou gérer des tâches qui nécessitent une certaine dose d’émotion et de créativité.

Elle ne peut pas non plus prédire avec précision les résultats ou anticiper les situations dans lesquelles les humains sont impliqués. De plus, les systèmes d’IA sont limités dans leur capacité à comprendre le contexte et les nuances des situations, par leurs algorithmes et leurs ensembles de données, ce qui signifie qu’ils ne peuvent faire que ce pour quoi ils sont programmés.

Par ailleurs, étant donné la complexité des systèmes utilisant l’intelligence artificielle, de multiples sources d’erreur peuvent apparaître, notamment liées à la conception du système :

  • Un manque de représentativité

Si certains cas réels n’ont pas été pris en compte dans les données d’entraînement, on parle de manque de représentativité.

Exemple : certains algorithmes de reconnaissance faciale entraînés sur des ensembles de données où les personnes de certaines origines ethniques étaient en nombre insuffisant.

  • Une hypothèse trop approximative

En tant qu’abstraction mathématique, l’algorithme repose sur des hypothèses dont certaines peuvent s’avérer trop approximatives.

Exemple : les algorithmes d’évaluation de la performance des enseignants aux États-Unis ont causé de nombreuses plaintes car l’hypothèse selon laquelle les notes des élèves étaient une preuve directe de la performance d’un enseignant était trop simpliste.

  • Les erreurs liées aux conditions d’utilisation

Des erreurs peuvent également survenir à cause des conditions d’utilisation du système d’IA, comme par exemple pour des tâches qui ne sont pas tout à fait celles pour lesquelles l’IA fut programmée.

  • Une mauvaise qualité des données

La qualité des données fournies au système lors de son utilisation modifie sa performance.

Exemple : cela peut être observé lorsqu’on utilise un assistant vocal dans un environnement bruyant : la qualité de la compréhension de l’assistant en est alors diminuée.

  • Des données déjà biaisées : une des limites les importantes de l’intelligence artificielle

Des données sont nécessaires pour l’apprentissage statistique de l’IA. Ces données peuvent être considérées comme données biaisées si :

  • Elles reflètent un comportement déjà biaisée
  • Le périmètre de données pour le modèle ne reflète pas la diversité des situations cible que le modèle devra traiter (ex. un historique de données trop restreint)
  • Un biais est déjà présent dans les variables/informations retenues pour la création du modèle (ex. Supprimer l’information du sexe dans un modèle de tarification d’assurance vie induit une augmentation de tarif pour les femmes car elles ont en moyenne une espérance de vie supérieure à celle des hommes).

Le contrôle et la détection de la présence de biais dans les données sources, la correction des biais dans les données sources, et la définition de métriques d’évaluation de l’équité du modèle sont des sujets complexes et encore mal maîtrisés.

« Il faut éviter que les biais de la société ne se reflètent dans les décisions prises par les machines. »

Yann LeCun

  • Des défauts liés au matériel ou à ses contraintes

Quand le système est dépendant de composants physiques comme des capteurs, la qualité de la sortie du système dépendra de l’état de ces composants.

Exemple : un système de détection d’incivilités par vidéosurveillance pourra être sujet à plus d’erreurs si déployé sur un parc de caméra de résolution insuffisante.

  • Les autres risques de défaillance

Les systèmes d’intelligence artificielle ne sont pas exempts des défaillances classiques des systèmes informatiques qui peuvent intervenir sur les infrastructures physiques où sont réalisés les calculs, lors de la communication d’information, ou encore à cause d’une erreur humaine. Par ailleurs, ils sont vulnérables aux attaques malveillantes.

Néanmoins, des erreurs peuvent devenir des dérapages voire même des scandales.

limites de l'intelligence artificielle : ses erreurs

source: geralt de Pixabay

Quand les limites de l’intelligence artificielle deviennent des dérapages…

L’intelligence artificielle (IA) a le potentiel de révolutionner notre façon de vivre et de travailler, mais elle comporte également certains risques.

En effet, lorsqu’une IA produit une erreur, ses conséquences peuvent être plus ou moins importantes et être jugées comme acceptables ou inacceptables pour les utilisateurs.

Si elles sont jugées inacceptables, on parle alors de dérapage : les dérapages de l’IA sont l’un des problèmes les plus préoccupants associés à cette technologie.

Voici quelques exemples sur ce sujet :

  • La carte de crédit « sexiste » d’Apple

En 2019, un régulateur financier américain a ouvert une enquête sur la carte de crédit d’Apple qui offrait des limites de crédit différentes pour les hommes et les femmes.

En effet, un utilisateur s’était plaint que la carte Apple lui avait donné 20 fois la limite de crédit que sa femme avait obtenue, montrant que les algorithmes utilisés pour fixer des limites potentiellement biaisés contre les femmes.

  • Le robot Microsoft « Tay »

En 2016, Microsoft lance le robot “Tay”, un chatbot, capable de participer à des conversations sur différents sujets, sur plusieurs réseaux sociaux.

“Tay” se basait sur des données accessibles publiquement afin de proposer des réponses aux questions posées et certaines réponses étaient déjà toutes faites selon Microsoft, réalisées par des humoristes.

Malgré des réponses préenregistrées, le robot fut mis hors circuit par la société Microsoft après avoir dérapé et nié l’existence de l’Holocauste, seulement quelques heures après son lancement.

  • Algorithme de recrutement utilisé par Amazon

En 2014, le géant du e-commerce Amazon a décidé de confier le recrutement de ses employés à un algorithme qui devait déterminer les meilleurs candidats à embaucher, en leur attribuant une note d’une à cinq étoiles selon les profils.

En 2015, Amazon s’est rendu compte que le système notait les candidats en excluant les femmes : cela étant dû à un biais de données. Le modèle informatique utilisé par Amazon s’appuyait sur les CV reçus par le groupe sur une période de dix ans, qui étaient pour la plupart ceux des hommes, reflet de la prédominance masculine dans le secteur des nouvelles technologies. Amazon a donc été contraint d’abandonner son programme trois ans plus tard.

  • Le logiciel COMPAS

Ce logiciel est utilisé aux Etats-Unis dans le but d’évaluer le risque de récidive chez les criminels. Ses prédictions influencent les cautions, les conditions de probation ainsi que la durée des peines de prison accordées lors d’une condamnation pénale.

L’algorithme COMPAS s’appuie sur différentes études et données relatives à la personne concernée et à son passé judiciaire sans aucune référence à son origine ethnique.

En mai 2016, il est apparu que l’algorithme aurait un apriori négatif à l’égard des noirs. Les données présentées étaient biaisées car ayant tendance à sur-représenter les personnes de certaines races ou quartiers.
Bien que contesté, il est toujours utilisé en attendant son éventuel remplacement par PSA (“Public Safety Assessment”).

  • Google Photos : de mauvaise identification d’image

Un utilisateur du service Google Photos, qui permet de détecter le contenu de clichés, s’est plaint d’avoir été identifié comme un gorille par le logiciel.

En effet, le 29 juin 2018, les internautes se sont affolés lorsque sur une image partagée, Google Photos a apposé le tag «gorille» sur le cliché de deux personnes Afro-américaines. Le «bug» à connotation raciste a immédiatement été corrigé par le géant américain qui a présenté ses excuses dans la foulée.

  • Uber : système de conduite autonome

En 2018, un véhicule autonome d’Uber a tué une piétonne en Arizona, ce qui a conduit à des enquêtes sur les erreurs de décision de l’IA et à des appels pour une réglementation plus stricte des véhicules autonomes.

  • Google Flu Trends : quand Google traque la grippe avec nos recherches

Le service Google Flu Trends, lancé en 2008 par Google, permettait de pouvoir prévoir le démarrage de l’épidémie de grippe aux états-unis. Il fut arrêté en 2015 par Google pour une simple et bonne raison : pas fiable, il a été à l’origine de mauvaises estimations de grande ampleur.

Le modèle, basé sur les mot-clefs associés aux symptômes grippaux et tapés dans le célèbre moteur de recherche, avait surestimé de 140 % le pic d’épidémie pour l’ensemble du territoire américain, en conséquence d’erreurs liées aux conditions d’utilisation qui ont fini par biaiser totalement les décisions de l’IA.

Pour conclure sur les limites de l’intelligence artificielle

Comme nous l’avons vu, l’IA a des limites et comprendre les causes de ses problèmes est essentiel pour éviter qu’ils ne se reproduisent à l’avenir. Les capacités de l’intelligence artificielle s’améliorent et elle est de plus en plus présente dans des domaines importants où les conséquences d’une erreur peuvent s’avérer énormes.

C’est pour cette raison qu’il est très important de rendre l’IA la plus sûre possible et de minimiser ses potentielles erreurs afin d’avoir confiance en l’IA.

Il faut toutefois rester réaliste : elle ne sera pas infaillible. Il est important de se rappeler que l’humain cherche à reproduire son intelligence : celle-ci est faillible. Il s’agit donc de limiter au maximum ces défaillances.

Une prise de conscience collective émerge : les limites actuelles de l’IA sont des enjeux aujourd’hui pour que demain, l’IA soit une IA responsable. Nous en parlerons la prochaine fois !

En attendant, je vous propose de patienter en visionnant cette vidéo de complément sur les limites de l’IA.