Vulnérabilité des commandes vocales Google Assistant, Alexa et Siri | Actualités geek

Par ,
Publié le 22 novembre 2019
Cet article appartient à la section Actualités

Technologies

Cet article est-il fiable ? (vous aussi laissez votre note !)

Hacking et piratages informatiquesInnovations et technologies

Vulnérabilité des commandes vocales Google Assistant, Alexa et Siri | actualité geek

Avec l’évolution de la technologie, les assistants vocaux ont pris de plus en plus de place dans nos vies. Les principales plateformes vocales comme Google Assistant, Alexa ou Siri rivalisent d’adresse pour proposer à leurs utilisateurs un service de qualité. Malgré les sécurités mises en place, ces assistants vocaux demeurent vulnérables et parfois victimes de hacking. Vous pensiez que le hacking s’arrêtait au code informatique ? Détrompez-vous, nous vous proposons de découvrir comment vos assistants vocaux peuvent se faire hacker.

Développement des assistants vocaux et risque de mise sur écoute

La technologie vocale a conquis de nombreux secteurs de métiers comme l’automatisation du service client, la vente en ligne, la commande dans la restauration ou encore l’aide à l’accessibilité au handicap. De plus, selon une étude du cabinet d’analyse Juniper Research, on estime qu’il y aura plus de 8 milliards d’assistants vocaux dans le monde en 2023 contre 2,5 milliards fin 2018. Ce chiffre met en exergue le fait que cette technologie progresse de manière exponentielle et prend place dans nos habitations.

Cependant, ces appareils connectés sont parfois victimes de mises sur écoute des utilisateurs à leur insu. En effet, il a été relaté à de nombreuses reprises dans l’actualité vocale que ces outils pouvaient se déclencher de manière « accidentelle ». Alors que vous discutiez normalement, vous vous rendez-compte que le micro est en marche sans avoir expressément avoir dit le « wake up word » comme « Hey Alexa » ou « Ok google ». Peut-être avez-vous dit dans une phrase un mot clé sans vous en rendre compte comme parlé de votre amie Alexa.

Bien qu’accidentelles ou intentionnelles, ces données sont par la suite envoyées dans le cloud. Une fois reçues dans le cloud, les données sont intégrées puis analysées afin d’être traitées par les moteurs de machine learning qui permettra aux GAFAM de vous envoyer des publicités ciblées, de savoir combien de personnes il y a chez vous, quelle sont vos habitudes de vie ou encore d’améliorer leur moteur de reconnaissance vocale. Problème supplémentaire, chaque donnée recueillie sera indexée à votre profil numérique afin que les géants du vocal puisse analyser et cibler avec grande précision votre comportement.

Les assistants vocaux et le piratage à distance : l’attaque au laser

Tout récemment, l’attention de la communauté vocale a été attirée par une expérience menée par des chercheurs de l’université d’électro-communication de Tokyo et de l’université du Michigan qui ont mis à jour une nouvelle faille pour hacker des assistants vocaux en utilisant un laser.

Selon l’étude intitulée attaques sur les systèmes à commande vocale, des chercheurs ont mis en avant la vulnérabilité des microphones des assistants vocaux en réussissant à pirater la commande vocale avec un laser lumineux. Tous les appareils vocaux disposants d’un micro tels que Google Assistant, Alexa, Portal et Siri seraient touchés.

Digne d’un film de James Bond, les scientifiques ont réussi à simuler la voix humaine en utilisant un laser lumineux pour injecter des commandes inaudibles dans les appareils vocaux et en prendre le contrôle. On appelle cette technique l’effet photo-acoustique. Elle consiste à convertir la lumière en son à l’aide d’un microphone.

Les smartphones et enceintes connectées disposent tous d’un microphone qui permet d’interagir vocalement. Ces micros appelés microphones MEMS (Micro-Electro-Mechanical System) sont constitués d’un diaphragme qui bouge lorsqu’un un son le percute. Lorsque le diaphragme bouge sous la pression acoustique de la voix, il créé des ondes électriques qui génèrent une commande vocale.

Ainsi, en changeant l’intensité d’un rayon laser jusqu’à une fréquence spécifique et en le pointant sur le micro de l’enceinte vocale, l’appareil considère ce faisceau laser comme une commande vocale. L’expérience a montré qu’il était possible d’ouvrir la porte de garage ou encore d’allumer et éteindre la lumière des appartements ciblés à une distance maximale de 150 mètres.

Ce qui permettrait aux hackeurs de pirater la commande vocale et de prendre contrôle des équipements connectés et d’espionner les utilisateurs.

Hacking des assistants vocaux : que faire ?

Si vous êtes en possession d’une de ces enceintes à commande vocale, vous pensez certainement à reconsidérer la chose. Ne vous inquiétez pas, il n’y a pas de quoi s’alarmer, d’autant que ce type de hacking est quand même très difficile à mettre en place. Cependant vous pouvez prendre certaines précautions :

  • Tout d’abord, vérifiez vos politiques de confidentialité sur l’usage de vos données personnelles.
  • Utilisez des assistants vocaux dotés de bouton de désactivation du microphone ou alors éteindre ou désactiver l’appareil s’il n’est pas en usage.
  • Ou bien, attendez les nouvelles versions d’assistants vocaux doté d’un microphone sécurisé.

Étant donné l’évolution exponentielle des assistants vocaux dans le monde, il n’est pas étonnant de voir se développer en parallèle de nouvelles formes de hacking des appareils connectés. Pour éviter d’en être victime, prenez ces précautions nécessaires afin de garder la maîtrise sur votre vie privée.

Partager l'article :

Placez un extrait de l'article sur votre site

Copier-coller le code HTML suivant sur votre site web !

<div style="border: solid 1px #72df72; padding: 10px;"><p>[Actualité Geek] <a href="/actualites/vulnerabilite-des-commandes-vocales-google-assistant-alexa-et-siri/" target="_blank">Vulnérabilité des commandes vocales Google Assistant, Alexa et Siri</a> : 

Avec l’évolution de la technologie, les assistants vocaux ont pris de plus en plus de place dans nos vies. Les principales plateformes vocales comme Google Assistant, Alexa ou Siri rivalisent d’adresse pour proposer à leurs utilisateurs un service de qualité. Malgré les sécurités mises en place, ces assistants vocaux demeurent vulnérables et parfois victimes de hacking.

</p><p style="text-align: right;"><a href="/actualites/vulnerabilite-des-commandes-vocales-google-assistant-alexa-et-siri/" target="_blank"> Lire la suite sur le Wiki Geek ! </a></p></div>
Pour poster un commentaire, connectez-vous avec votre pseudo

Laisser un commentaire

Soumettre des modifications

Connectez-vous pour envoyer des modifications et faire partie des contributeurs de cet article !