Les assistants vocaux ont connu une croissance exponentielle ces dernières années et sont de plus en plus populaires, avec l’arrivée de Siri d’Apple en 2011, suivi par Amazon Echo et Google Home en 2015. Ces dispositifs ont révolutionné la façon dont les gens interagissent avec la technologie, offrant une interface plus naturelle et intuitive. Les utilisateurs emploient ces assistants pour effectuer diverses tâches, telles que la recherche d’informations, la commande de produits et la gestion de leur maison intelligente. Cependant, avec l’augmentation de l’utilisation des assistants vocaux, plusieurs problématiques liées à la vie privée, à la sécurité et à l’éthique ont été soulevées. 

Découvrons cela ensemble !

Les assistants vocaux : l’avenir pratique ou la fin de la vie privée ?

La protection de la vie privée est une préoccupation majeure pour de nombreux utilisateurs d’assistants vocaux. Ces dispositifs sont constamment à l’écoute, attendant la commande « OK Google » ou « Hey Siri » pour commencer à enregistrer et traiter les requêtes. Les assistants vocaux collectent les données personnelles des utilisateurs, notamment des informations sur leur voix, leur emplacement, leur historique de recherche et leurs habitudes d’utilisation. Ces données peuvent être utilisées pour cibler des publicités ou pour améliorer les services offerts par les assistants vocaux. Cela induit indirectement que les assistants vocaux peuvent enregistrer des conversations qui ne sont pas destinées à être partagées, et stocker ces données sur les serveurs des entreprises. L’assistant vocal se déclenche parfois sans avoir été sollicité et enregistre des transcriptions à différents moments de la journée avec tous les risques de divulgations d’informations sensibles que vous pouvez imaginer et ceux sans le consentement de l’utilisateur. Cette problématique limite la confiance accordée aujourd’hui à ces assistants intelligents. La Cnil (Commission nationale de l’informatique et des libertés), de son côté, recommande tout simplement de couper le micro de l’assistant vocal lorsque celui-ci n’est pas utilisé. Si, dans le cadre privé, ces problèmes de sécurité des données sont préoccupants, ils peuvent se révéler critiques dans le cadre professionnel où les enjeux financiers sont considérables et les problématiques de concurrence, de brevets ou de stratégie commerciale sont déterminantes. 

De plus, les assistants vocaux ont été critiqués pour leur manque de transparence en matière de collecte de données. Les utilisateurs ne sont pas toujours conscients de la quantité de données que leur assistant vocal collecte, ni de la manière dont ces données sont utilisées. Les entreprises qui fournissent ces dispositifs doivent être plus transparentes quant à la façon dont elles collectent et utilisent les données des utilisateurs, afin de permettre aux utilisateurs de prendre des décisions éclairées sur l’utilisation de ces dispositifs. 

Une obligation de transparence qui a été imposée par la justice américaine à Amazon afin de prouver qu’Alexa n’espionne pas les foyers américains suite à une plainte déposée par un collectif d’utilisateurs inquiets et soucieux de leur vie privée. L’objectif: obtenir plus de contrôles sur les données qu’ils partagent et permettre la suppression des données collectées à tout moment. Les utilisateurs doivent également être informés des risques potentiels liés à l’utilisation d’assistants vocaux et des mesures qu’ils peuvent prendre pour protéger leur vie privée.

Illustration - protection vie privée data

Les assistants vocaux : nos données personnelles sont-elles en sécurité?

Bien que les entreprises affirment prendre la vie privée au sérieux et mettre en place des mesures de sécurité pour protéger les données des utilisateurs, il existe toujours un risque que ces informations soient compromises ou utilisées à des fins malveillantes telles que le vol d’identité ou la cybercriminalité.

La sécurité des données fait partie des autres préoccupations importantes liées aux assistants vocaux. Comme ces dispositifs sont souvent connectés à d’autres appareils intelligents, tels que des systèmes de domotique (thermostats, des serrures de porte et des caméras de surveillance…), ils peuvent potentiellement être utilisés pour accéder à ces autres appareils. Les cybercriminels peuvent exploiter les failles de sécurité dans les assistants vocaux pour accéder à des informations sensibles, telles que des mots de passe ou des données financières. Cela signifie qu’un hacker pourrait potentiellement accéder à ces appareils en utilisant un assistant vocal compromis et même les contrôler à distance.

Illustration - Domotique appareils connectés

Les assistants vocaux et l’éthique: où est la limite?

Enfin, le dernier point du volet des préoccupations lié aux assistants vocaux est l’éthique. Comme ces dispositifs sont conçus pour interagir avec les humains de manière plus naturelle, ils peuvent souvent sembler avoir une personnalité ou des émotions. Une perception portée et voulue par les développeurs de ces IA avec comme exemple Rohit Prasad, l’un des pères du logiciel d’Amazon, qui défend cette vision: 

« Alexa n’est pas qu’un assistant, c’est beaucoup plus que cela, l’application se doit être un conseiller et un compagnon ». Source: Le monde

Néanmoins, cela peut se montrer problématique si la frontière entre personne réelle et simple outil devient de moins en moins tangible. Les assistants vocaux peuvent reproduire des stéréotypes et des préjugés, car ils sont souvent programmés pour répondre aux requêtes de manière cohérente et conversationnelle, plutôt que de manière éthique ou équitable et s’adapte en fonction de l’accent, de la voix et de la langue de l’utilisateur, ce qui peut conduire à une discrimination.

Également, les assistants vocaux peuvent, et peuvent être programmés, pour influencer les choix et les comportements des utilisateurs, ce qui soulève des préoccupations éthiques quant à la manipulation des utilisateurs où par exemple, un fait divers qui avait fait scandale où Alexa a proposé, à une fille demandant un challenge, de placer une pièce de monnaie dans une prise de courant. 

 

Conclusion

Pour conclure sur ce sujet, le but de cet article n’est pas d’être à charge contre cette nouvelle technologie qui est booster d’innovation et nous apporte bien plus de bienfaits, de praticité dans notre quotidien mais plutôt d’avertir sur les possibles dérives et risques qu’elle provoque. Comme toute nouvelle technologie, chaque partie prenante (utilisateur, entreprise, instance juridique) doit se réguler et prendre le pas. Contre les problématiques évoquées (sécurité, éthique, vie privée), des solutions existent. Chez les développeurs d’assistants vocaux, des mesures de sécurité, de mise à jour et de transparence peuvent être mises en place. Chez les utilisateurs, d’être conscients de l’utilisation de l’assistant vocal en limitant les autorisations si nécessaires, en renforçant les mots de passe et en évitant de s’appuyer sur lui pour toutes les tâches. 

Cet article fait partie d’une série de 3 articles sur le voice search/recherche vocale. N’hésitez pas à me suivre sur Linkedin pour rester informés.

→ Vous avez aimé cet article ? Partagez le sur linkedin et twitter

Pour compléter votre lecture sur la recherche vocale: La recherche vocale SEO: un moyen d’optimiser votre référencement – 12 janvier 2023 – Alex LAOUEDJ

Sources: