Nombreux sont les ménages qui ont adopté la dynamique de la Smart Home. Avec leurs enceintes connectées, ils arrivent à gérer vocalement leurs appareils. Ces enceintes peuvent se connecter aux équipements électroniques de la maison et sont dotés d’assistant vocal.
Parfois, nous ignorons réellement ce dont elles sont capables. Ceci nous amène à nous demander si les enceintes connectées écoutent tout à la maison, même nos réflexions et objectifs les plus personnels. Ce guide vous aide à y voir plus clair.
Cet article devrait vous intéresser : Comment mettre à jour son Chromecast ?
Des enregistreuses à la commande
En principe, les enceintes connectées n’enregistrent que si elles ont été activées. Et l’activation d’une enceinte connectée se fait par commande vocale. Il peut s’agir d’un mot-clé tel que « Hey Siri » ou « OK Google ».
Mais, un reporteur du site Android Police qui a testé le Google Home Mini a réalisé qu’elle avait enregistré bien plus de messages que prévu. Ce journaliste est allé consulter l’application consacrée, et a constaté que celle-ci stockait enregistrements insoupçonnés.
En effet, après avoir émis une commande vocale, une enceinte devrait entrer en veille. Hélas, l’appareil testé était défectueux, indique Google. Or, sur ce modèle, le bouton dédié à l’activation a déclenché une série d’enregistrements non commandés.
Précisons que les modèles défectueux n’ont pas été vendus à un grand nombre de personnes. Bien que le dysfonctionnement ait été résolu, les adeptes de ces appareils connectés doivent savoir qu’ils sont à la base des enregistreurs de commandes vocales et de données.
Des défauts de fonctionnement et une mauvaise compréhension des commandes
Dans l’état côtier d’Oregon (mai 2018), la discussion d’un couple de citoyens américains a été enregistré à l’improviste par Alexa d’Amazon. Par la suite, cette enceinte connectée a transmis la conversation intime de façon anodine, heureusement, à contact de l’homme.
Manifestement, ce n’est ni un appareil intelligent, encore moins une intelligence artificielle autonome ou une attaque informatique. Il s’agit plutôt d’une erreur liée au traitement d’une instruction vocale.
À en croire les explications d’Amazon, l’assistant d’Echo se serait réveillé après avoir entendu dans la conversation du couple un terme similaire à Alexa. Pour ce dernier, il devrait donc transmettre un message.
Du coup, l’assistant vocal aurait cherché à connaître l’identité du destinataire et entendu un nom, celui d’un collaborateur du mari. Alexa a donc envoyé une note vocale à ce dernier. Il s’agirait d’un faux positif, autrement dit une erreur de traitement sur 5 différentes instructions.
Amazon assure cependant qu’il s’agit d’un incident mineur. Que ce soit une enceinte connectée de Google, d’Amazon ou d’Apple, aucune d’entre elles ne prête oreille à vos échanges, à condition que vous ne les sollicitiez.
Et vous pouvez le faire avec une expression particulière comme « Siri, », « Alexa » et autres. Avant qu’un mot clé ne soit reconnu de façon instantanée par une enceinte, il faudrait que son micro soit constamment en veille.
Même dans cet état, aucune note vocale ne peut être envoyée au concepteur, encore moins enregistrée. Théoriquement, une enceinte connectée ne peut se transformer en espionne que lorsqu’elle a été piratée ou est sujet à un bug.