Crédits photos : Bence Boros
D’après une étude relayée par ARS Technica, la menace représentée par les assistants vocaux comme Alexa et Google Home est réelle. Des pirates ayant développé des logiciels espions pourraient avoir accès à nos conversations.
En quoi ces logiciels espions peuvent-t-ils être dangereux ?
Les chercheurs ont voulu comprendre dans quelle mesure ces applications pirates pouvaient être dangereuses. Ils ont réalisé des tests et une utilisatrice a engagé la conversation avec un assistant vocal avec une phrase toute simple comme : « OK Google, demande à mon horoscope l’actualité pour les capricornes ».
Lorsque un logiciel malveillant est présent, il fournit une réponse fausse. Ainsi, il prétend que la compétence ou l’action n’est pas disponible dans le pays de l’utilisateur. Ensuite, il se tait. Il donne ainsi l’impression que ce que l’on va dire par la suite ne sera pas entendu. Pourtant le logiciel espion est capable d’enregistrer toutes les conversations. Puis, il les envoie à un serveur désigné par le hacker.
Savoir déceler un danger potentiel de piratage
Après environ une minute de silence, l’assistant vocal utilise une voix qui imite celle utilisée par Alexa ou Google Home. Il prétend qu’une mise à jour de l’appareil est disponible et demande à l’utilisateur un mot de passe. C’est là qu’est le risque ! En effet, les pirates misent sur le fait que ce mot de passe permet d’accéder à d’autres applications.
Des pirates peuvent s’immiscer dans notre vie privée
Le simple fait que les géants du web puissent avoir accès à nos conversations est déjà un problème. Cependant cela pourrait s’avérer beaucoup plus dangereux si des applications malveillantes, développées par des tiers et hébergées par Amazon ou Google, pouvaient le faire aussi. Les chercheurs du SRLabs ont tenté de démontrer comment des logiciels malveillants pouvaient s’immiscer dans nos conversations privées.
Les assistants vocaux ont des conséquences sur notre vie privée.
Fabian Bräunllein, SRLabs
Pour Fabian Bräunlein, consultant principal en sécurité chez SRLabs et co-auteur de cette étude : « il a toujours été clair que ces assistants vocaux ont des conséquences sur la vie privée, Google et Amazon reçoivent vos conversations. Mais aujourd’hui nous voulons démontrer que désormais, non seulement les fabricants, mais aussi les pirates peuvent abuser de ces assistants vocaux pour s’immiscer dans la vie privée de n’importe qui ». Tout le problème est là !
Source : srlabs