Facebook nous a récemment donné notre meilleur aperçu de ses plans de réalité augmentée. La société testera un nouvel ensemble de lunettes qui jettera les bases d’un éventuel produit prêt à la consommation. Le «projet de recherche», appelé Projet Aria, en est encore à ses débuts, selon Facebook. Il n’y a pas d’écran, mais les lunettes sont équipées d’une gamme de capteurs et de microphones qui enregistrent la vidéo, l’audio et même les mouvements oculaires de son porteur – le tout dans le but d’aider les scientifiques des Reality Labs de Facebook à «comprendre comment la RA peut fonctionner en pratique».

Bien que le projet n’en soit qu’à ses débuts, Facebook est clairement enthousiasmé par son potentiel. «Imaginez appeler un ami et discuter avec son avatar réaliste de l’autre côté de la table», écrit la société. «Imaginez un assistant numérique suffisamment intelligent pour détecter les dangers de la route, proposer des statistiques lors d’une réunion d’affaires ou même vous aider à mieux entendre dans un environnement bruyant. C’est un monde où l’appareil lui-même disparaît entièrement dans le flux et le reflux de la vie quotidienne.

Mais si vous faites partie de ceux qui pensent que Facebook en sait déjà trop sur nos vies, vous êtes probablement plus que légèrement dérangé par l’idée que Facebook ait une présence semi-permanente sur ton vrai visage

Facebook

Facebook, à son honneur, en est conscient. La société a publié un long article de blog sur toutes les façons dont elle prend en compte la confidentialité. Par exemple, il indique que les travailleurs qui portent les lunettes seront facilement identifiables et seront formés à «l’utilisation appropriée». L’entreprise cryptera également les données et brouillera les visages et les plaques d’immatriculation. Il promet que les données collectées «ne seront pas utilisées pour informer les publicités que les internautes voient sur les applications de Facebook», et seuls les chercheurs agréés pourront y accéder. 

Mais rien de tout cela ne traite de la manière dont Facebook a l’intention d’utiliser ces données ou du type de «recherche» pour lequel elles seront utilisées. Oui, cela renforcera la compréhension du réseau social de la réalité augmentée, mais il y a bien d’autres choses qui vont avec. Comme l’a noté l’organisation de défense des droits numériques Electronic Frontier Foundation (EFF) dans un récent article de blog, le suivi oculaire à lui seul a de nombreuses implications au-delà des fonctions de base d’un casque AR ou VR. Nos yeux peuvent indiquer comment nous pensons et ressentons – pas seulement ce que nous regardons.

Comme l’expliquent Rory Mir et Katitza Rodriguez de l’EFF dans l’article:

La façon dont nous bougeons et interagissons avec le monde offre un aperçu, par procuration, de ce que nous pensons et ressentons en ce moment. Si elles sont agrégées, les personnes qui contrôlent ces données biométriques peuvent être en mesure d’identifier des modèles qui leur permettent de prédire (ou de provoquer) plus précisément certains comportements et même des émotions dans le monde virtuel. Cela peut permettre aux entreprises d’exploiter les vulnérabilités émotionnelles des utilisateurs grâce à des stratégies auxquelles l’utilisateur a du mal à percevoir et à résister. Ce qui rend la collecte de ce type de données biométriques particulièrement effrayante, c’est que contrairement à une carte de crédit ou un mot de passe, ce sont des informations nous concernant que nous ne pouvons pas changer. Une fois collectées, les utilisateurs ne peuvent pas faire grand-chose pour atténuer les dommages causés par les fuites ou les données monétisées avec d’autres parties.

Il y a aussi une préoccupation plus pratique, selon Rodriguez et Mir. C’est la «vie privée des spectateurs» ou le droit à la vie privée en public. «Je crains que si les protections ne sont pas les bonnes, avec cette technologie, nous pouvons construire une société de surveillance où les utilisateurs perdent leur vie privée dans les espaces publics», a déclaré à TechQ Rodriguez, directeur des droits internationaux de l’EFF. «Je pense que ces entreprises vont pousser pour de nouveaux changements dans la société de la façon dont nous nous comportons dans les espaces publics. Et ils doivent être beaucoup plus transparents sur ce front. »

Lire aussi  La Galaxy Watch Active 2 bénéficie de certaines des meilleures fonctionnalités de la Galaxy Watch 3

Dans un communiqué, un porte-parole de Facebook a déclaré que «le projet Aria est un outil de recherche qui nous aidera à développer les garanties, les politiques et même les normes sociales nécessaires pour régir l’utilisation des lunettes AR et d’autres futurs appareils portables.» 

Facebook est loin d’être la seule entreprise à se débattre avec ces questions. Apple, qui travaillerait également sur un casque AR, semble également expérimenter le suivi oculaire. Amazon, en revanche, a adopté une approche différente en ce qui concerne la capacité à comprendre notre état émotionnel. 

Considérez son tout nouveau portable: Halo. À première vue, l’appareil, qui est un produit réel que les gens pourront bientôt utiliser, semble beaucoup plus proche des types d’appareils portés au poignet qui sont déjà largement disponibles. Il peut vérifier votre fréquence cardiaque et suivre votre sommeil. Il possède également une autre fonctionnalité que vous ne trouverez pas sur votre Fitbit ou votre smartwatch standard: l’analyse de la tonalité. 

Activez et le portable écoutera passivement votre voix tout au long de la journée afin «d’analyser la positivité et l’énergie de votre voix». Il est censé contribuer à votre bien-être général, selon Amazon. L’entreprise suggère que cette fonctionnalité «aidera les clients à comprendre ce qu’ils pensent des autres» et «soutiendra le bien-être émotionnel et social et aidera à renforcer la communication et les relations».

Amazone

Si cela semble vaguement dystopique, vous n’êtes pas seul, la fonctionnalité en a déjà déclenché plus d’un Miroir noir Comparaison. Également inquiétant: l’histoire nous a appris à maintes reprises que ces types de systèmes finissent souvent par être extrêmement biaisés, quelle que soit l’intention du créateur. Comme Protocole souligne que les systèmes d’IA ont tendance à être assez mauvais pour traiter les femmes et les personnes de couleur de la même manière qu’ils traitent les hommes blancs. Amazon lui-même a eu du mal avec cela. Une étude réalisée l’année dernière par le laboratoire des médias du MIT a révélé que la technologie de reconnaissance faciale d’Amazon avait du mal à identifier avec précision les visages des femmes à la peau sombre. Et une étude de Stanford de 2019 a révélé des disparités raciales dans la technologie de reconnaissance vocale d’Amazon. 

Lire aussi  Le lecteur Lo-Fi de Google Magenta est un studio de musique virtuel basé sur l'IA

Ainsi, bien qu’Amazon ait déclaré utiliser diverses données pour entraîner ses algorithmes, il est loin d’être garanti qu’il traitera tous ses utilisateurs de la même manière dans la pratique. Mais même si ça fait Traitez tout le monde équitablement, donner à Amazon une ligne directe sur votre état émotionnel pourrait également avoir de graves implications pour la vie privée. 

Et pas seulement parce que c’est effrayant pour le plus grand détaillant du monde de savoir ce que vous ressentez à un moment donné. Il est également possible qu’Amazon puisse, un jour, utiliser ces nouvelles informations pour vous amener à acheter plus de produits. Ce n’est pas parce qu’il n’y a actuellement aucun lien entre Halo et le service de vente au détail d’Amazon ou Alexa que ce sera toujours le cas. En fait, nous savons que grâce aux dépôts de brevets, Amazon a donné l’idée plus qu’une pensée passagère.

Il y a deux ans, la société a obtenu un brevet qui explique en détail comment Alexa peut recommander de manière proactive des produits en fonction du son de votre voix. Le brevet décrit un système qui permettrait à Amazon de détecter «une condition physique ou émotionnelle anormale» sur la base du son d’une voix. Il pourrait alors suggérer du contenu, afficher des publicités et recommander des produits en fonction de l ‘ »anomalie ». Les dépôts de brevets ne sont pas nécessairement une indication des plans réels, mais ils offrent une fenêtre sur la façon dont une entreprise pense à un type particulier de technologie. Et dans le cas d’Amazon, ses idées pour la détection des émotions sont plus qu’un peu alarmantes.

Un porte-parole d’Amazon a déclaré à TechQ que «nous n’utilisons pas les données de santé Amazon Halo pour le marketing, les recommandations de produits ou la publicité», mais a refusé de commenter les projets futurs. Le brevet offre cependant des indices potentiels.

Brevets Google / Amazon

«Une condition physique et / ou émotionnelle actuelle de l’utilisateur peut faciliter la capacité de fournir un contenu audio hautement ciblé, comme des publicités audio ou des promotions», déclare le brevet. « Par exemple, certains contenus, tels que les contenus liés aux pastilles contre la toux ou aux médicaments contre la grippe, peuvent être destinés aux utilisateurs qui ont mal à la gorge. »

Dans un autre exemple – utilement illustré par Amazon – un appareil de type Echo recommande une recette de soupe au poulet lorsqu’il entend une toux et un reniflement. 

Aussi troublant que cela puisse paraître, Amazon indique clairement que ce n’est pas seulement en tenant compte du son de votre voix. Le brevet indique qu’il peut également utiliser votre historique de navigation et d’achat, le «nombre de clics» et d’autres métadonnées pour cibler le contenu. En d’autres termes: Amazon utiliserait non seulement votre état émotionnel perçu, mais tout ce qu’il sait sur vous pour cibler des produits et des publicités. 

Lire aussi  Google étend les outils d'accessibilité de l'Assistant avec une nouvelle intégration vocale

Ce qui nous ramène à Facebook. Quel que soit le produit qu’Aria deviendra finalement, il est désormais impossible, en 2020, d’imaginer une version de celui-ci qui ne violera pas notre vie privée de manière nouvelle et inventive afin d’alimenter la machine publicitaire déjà inquiétante de Facebook. 

Les applications mobiles de Facebook aspirent déjà une quantité incroyable de données sur où nous allons, ce que nous achetons et à peu près tout ce que nous faisons sur Internet. La société nous a peut-être suffisamment désensibilisés à ce stade pour prendre cela pour acquis, mais cela vaut la peine de considérer combien nous sommes prêts à donner. Que se passe-t-il lorsque Facebook sait non seulement où nous allons et qui nous voyons, mais tout ce que nous regardons? 

Un porte-parole de Facebook a déclaré que la société «serait honnête à propos de tout projet lié aux publicités».

«Le projet Aria est un effort de recherche et son objectif est de nous aider à comprendre le matériel et les logiciels nécessaires pour créer des lunettes AR, et non de personnaliser les publicités. Dans le cas où l’une de ces technologies serait intégrée à un appareil disponible dans le commerce à l’avenir, nous serons francs sur tout projet lié aux publicités. « 

Une promesse de transparence, cependant, est bien différente de l’assurance de ce qu’il adviendra de nos données. Et cela met en évidence pourquoi la législation sur la protection de la vie privée est si importante – car sans elle, nous n’avons guère d’autre choix que de croire une entreprise sur parole. 

« Facebook se positionne pour être l’Android de AR VR », a déclaré Mir. «Je pense que, comme ils n’en sont qu’à leurs débuts, il est logique qu’ils prennent des précautions pour séparer les données de la publicité et de tout cela. Mais le problème, c’est qu’une fois qu’ils contrôlent le support ou ont un contrôle du marché au niveau Android, comment pouvons-nous nous assurer qu’ils respectent les bonnes pratiques de confidentialité? »

Et la question des bonnes pratiques de confidentialité ne devient plus urgente que si vous considérez à quel point les entreprises de données comme Facebook et Amazon sont sur le point d’avoir accès. Des produits comme Halo et des projets de recherche comme Aria peuvent être expérimentaux pour le moment, mais ce n’est peut-être pas toujours le cas. Et, en l’absence de réglementations plus strictes, rien ne les empêchera d’utiliser ces nouvelles connaissances sur nous pour renforcer leur domination. 

«Il n’y a pas de lois fédérales sur la protection de la vie privée aux États-Unis», a déclaré Rodriguez. «Les gens se fient aux politiques de confidentialité, mais les politiques de confidentialité changent avec le temps.»