La nouvelle alarme d’Alexa suscite la controverse parmi les utilisateurs

Diverses associations américaines de consommateurs réclament une plus grande protection de la vie privée et de la sécurité des mineurs face aux possibilités de cette nouvelle alarme. Un problème qui vient semer plus de doutes sur la manière dont ces produits affectent notre vie privée.

L’une des nouvelles fonctionnalitĂ©s que nous trouvons dĂ©jĂ  dans certains assistants virtuels comme Alexa est la possibilitĂ© de servir d’alarme domestique. Une fonction qui utilise principalement le son, dans le cas de l’assistant d’Amazon, bien que dans d’autres modèles, il ait Ă©galement la possibilitĂ© de se connecter via des camĂ©ras IP, des capteurs de tempĂ©rature ou des dĂ©tecteurs de fumĂ©e, afin d’offrir une protection complète Ă  l’utilisateur. Une idĂ©e qui pourrait bien faire de ce produit la meilleure alarme domestique quand nous n’avons pas besoin de produits complexes.

Le problème est qu’en Ă©change de cette protection, il y a un prix Ă  payer : la vie privĂ©e. C’est un problème auquel les consommateurs se sont dĂ©jĂ  heurtĂ©s, car la possibilitĂ© d’Ă©couter, de contrĂ´ler et de transfĂ©rer dans le nuage tous les types d’audios Ă  contenu personnel pose un sĂ©rieux problème.

Comment fonctionne la technologie

Pour commencer Ă  comprendre le problème, il est essentiel de savoir comment fonctionne la technologie. Dans le cas spĂ©cifique d’Alexa, dont nous traitons dans cet article, l’orateur est chargĂ© d’Ă©couter ce qui se passe autour de lui Ă  tout moment une fois que nous avons donnĂ© l’ordre d' »armer » l’alarme domestique. Cette opĂ©ration est la mĂŞme que celle du produit lorsque nous sommes Ă  la maison et nous donnons des commandes conventionnelles, comme allumer le chauffage, allumer la tĂ©lĂ©vision intelligente ou Ă©couter notre musique prĂ©fĂ©rĂ©e.

La principale diffĂ©rence est qu’une fois ce mode d’alarme activĂ©, le produit perçoit tout bruit autour du haut-parleur. Ces sons sont envoyĂ©s sur Internet aux serveurs d’Amazon et sont analysĂ©s Ă  l’aide d’une technologie avancĂ©e pour rechercher des modèles pouvant ĂŞtre utilisĂ©s pour reconnaĂ®tre des menaces telles que des bris de verre ou une tentative de casser une porte.

Ce contenu est non seulement traitĂ© par des algorithmes, mais il peut Ă©galement ĂŞtre Ă©coutĂ© par le personnel de l’entreprise, afin d’obtenir les informations nĂ©cessaires Ă  l’amĂ©lioration de l’algorithme, puisque l’algorithme lui-mĂŞme n’est pas capable d’apprendre. En outre, ces donnĂ©es sont Ă©galement stockĂ©es sur les serveurs de l’entreprise, parfois pendant une pĂ©riode assez longue et Ă  des fins qui ne sont pas toujours claires. Une approche qui, sans aucun doute, est le point de dĂ©part des problèmes.

Le problème de la boîte noire

L’un des problèmes que les associations de consommateurs ont dĂ©noncĂ© est l’atteinte Ă  la vie privĂ©e qu’Alexa peut porter aux utilisateurs pendant ce mode d’alarme. Cela concerne principalement l’utilisation de ces informations. Le fabricant nous dit dans ses conditions d’utilisation que les sons enregistrĂ©s peuvent ĂŞtre utilisĂ©s pour la dĂ©tection d’alarme et l’amĂ©lioration du système, mais guère plus. Il n’y a pas de donnĂ©es sur les personnes qui peuvent entendre ces informations, les fins auxquelles elles sont destinĂ©es et la durĂ©e de leur conservation.

Ce problème n’est pas exclusif Ă  Amazon, mais est Ă©galement partagĂ© par d’autres entreprises du secteur, dont la transparence Ă  cet Ă©gard est inexistante, voire inexistante. La seule information existante est l’information gĂ©nĂ©rique, que nous venons de commenter, qui ne comprend aucune autre donnĂ©e concernant l’utilisation de ces enregistrements. Ainsi, si quelqu’un veut faire un mauvais usage de nos donnĂ©es, nous devrons compter uniquement sur la bonne foi d’Amazon, ou de l’entreprise concernĂ©e, pour qu’ils prennent les mesures nĂ©cessaires pour Ă©viter ces problèmes.

Le problème est qu’au vu des faits, la vĂ©ritĂ© est qu’il y a des raisons de se mĂ©fier. Amazon lui-mĂŞme a dĂ» reconnaĂ®tre que certains des ordres, conversations et bruits peuvent ĂŞtre entendus par les ĂŞtres humains dans des circonstances complexes ou lorsqu’ils ne sont pas compris par l’algorithme. Comme si cela ne suffisait pas, les journalistes de Bloomberg ont montrĂ© comment de tels contenus passaient par le personnel de l’entreprise alors qu’ils pouvaient ĂŞtre comiques ou drĂ´les. La preuve que les prĂ©occupations des utilisateurs ne sont pas infondĂ©es.

Un tarif forfaitaire pour tout enregistrer

Toute cette approche ne serait pas un problème si ce n’Ă©tait du système d’enregistrement aveugle de l’orateur lui-mĂŞme. Pour activer le système d’enregistrement et de surveillance, une simple commande suffit, ce qui peut mĂŞme ĂŞtre dit de manière « accidentelle » lors d’une conversation informelle. L’activation de l’enregistrement est donc extrĂŞmement facile et peut mĂŞme se faire de manière involontaire.

Ă€ partir de ce moment, le produit commence Ă  Ă©couter absolument tout ce qui se passe autour de lui, sans distinguer s’il s’agit d’une conversation personnelle, du bruit gĂ©nĂ©rĂ© par une Ă©ventuelle intrusion ou de quelque chose d’aussi frugal qu’une branche qui tombe ou notre chien ou notre chat qui passe dans les environs. Tout cela constitue une menace pour la vie privĂ©e des utilisateurs, qui peuvent ĂŞtre enregistrĂ©s Ă  leur insu.

C’est un autre point du procès dont nous avons discutĂ©. Les experts y dĂ©noncent ce fait, bien qu’ils soulignent Ă©galement le risque relatif pour les mineurs, qui bĂ©nĂ©ficient d’une protection spĂ©ciale en vertu du droit amĂ©ricain. L’action de ces associations de consommateurs trouve donc un Ă©cho considĂ©rable dans cette lĂ©gislation.

Ce qui doit être amélioré

Parmi les exigences concrètes de ces associations, deux questions sont très claires. La première est que le système d’activation des camĂ©ras devrait ĂŞtre un peu plus exigeant que le simple fait de dire un mot, ce qui pourrait amener n’importe qui Ă  dĂ©clencher l’alarme de manière inattendue ou non souhaitĂ©e. Une question qui semble simple compte tenu du processus de dĂ©veloppement de ces systèmes.

L’autre partie vise Ă  exiger d’Amazon qu’elle amĂ©liore les procĂ©dures de traitement de ces donnĂ©es, notamment en ce qui concerne leur suppression. La rĂ©glementation propre Ă  Amazon permet de conserver ces enregistrements pour toujours, et ils ne sont supprimĂ©s qu’Ă  la demande de l’utilisateur. C’est abusif, surtout dans le cas des modèles destinĂ©s aux enfants. L’entreprise est donc tenue de supprimer les donnĂ©es dans un dĂ©lai raisonnable et lorsqu’elles ne sont plus nĂ©cessaires Ă  ses procĂ©dures. Nous verrons si les autoritĂ©s mettent enfin de l’ordre dans toute cette affaire.