VOUS ÊTES SURVEILLÉ

Spread the love

Capitalisme de surveillance – Contrôler imperceptiblement vos décisions 

Je suis récemment tombé sur une interview vidéo avec le professeur Shoshana Zuboff , Charles Edward Wilson Emerita, de la Harvard Business School, auteur du livre The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power.L’intervieweur déclare qu’elle est souvent appelée le Karl Marx de notre temps. Je ne sais pas quelle est sa nationalité (juive?) Ou ses pensées sur d’autres sujets, mais ce dont elle parle dans cette interview ne correspond pas à ce que je considère comme le rejet total par Marx du capitalisme et de ses croyances communistes. Elle défend la démocratie (non que je sois d’accord avec le capitalisme ou la démocratie) et est principalement contre un nouveau type de capitalisme qui est apparu avec la révolution de la Silicon Valley, à la grande technologie. Cette nouvelle forme de capitalisme «d’ombre» prend subrepticement nos informations personnelles et les utilise pour influencer nos comportements, émotions, désirs, etc. pour de gros profits. La vidéo a été présenté dans une connaissance interdite 20 Janvier 2 020 article. L’interview dure environ 50 minutes, mais j’ai trouvé le sujet dont parle Zuboff très intéressant.

Grâce à leurs applications, des entreprises comme Google ne se contentent pas de suivre les données évidentes des utilisateurs telles que le nom, l’adresse, la date de naissance, le numéro de téléphone, etc., mais depuis le début des années 2000, elles suivent d’autres types de données dont les utilisateurs n’étaient même pas conscients. . Ces données portent des noms tels que «données résiduelles», «déchets» ou «épuisement des données» qui en disent encore plus sur un individu et sont devenues une grande source de production de richesse pour les entreprises. Ces données peuvent inclure des éléments tels que les fautes d’orthographe, la vitesse de frappe, les préférences de couleur, la vitesse de conduite, les lieux fréquentés, etc. Il s’agit d’une source de ce que l’auteur appelle des «données prédictives riches».

Les entreprises disent avoir besoin de ces données pour améliorer leurs services, par exemple, en suggérant à un utilisateur des mots mal orthographiés. Mais derrière cette amélioration du service, les entreprises suivent également ces données pour les analyser et former des modèles algorithmiques prédictifs du comportement humain. Au fil du temps, les individus peuvent appartenir à des groupes prédictifs qui permettent aux entreprises de comprendre et de prévoir le comportement des individus au sein de ces groupes. L’auteur appelle ces données «surplus de comportement», ce qui signifie que plus de données sont collectées qu’il n’en faut à l’entreprise pour fournir le service offert.

L’auteur donne un exemple simple de la manière dont les données prédictives peuvent être utilisées. Grâce à vos habitudes de préférence, le modèle algorithmique peut être en mesure de prédire le type d’aliments pour lesquels vous êtes d’humeur à une heure particulière de la journée, un jour particulier de la semaine ou du mois. Ces données prédictives sont ensuite vendues à d’autres entreprises du secteur de l’alimentation et de la restauration. À l’heure prévue, vous recevrez ensuite des publicités ciblées de vendeurs de nourriture sur votre téléphone ou votre ordinateur pour la nourriture pour laquelle vous êtes d’humeur (peut-être avec un bon de réduction), créant des ventes pour ces fournisseurs. Si vous succombez aux publicités et effectuez un achat, vous renforcez encore la précision du modèle algorithmique de programmation prédictive.

L’auteur déclare que c’est une idée fausse de croire que le capitalisme de surveillance ne se manifeste que lorsque les individus sont en ligne. Elle dit que le capitalisme de surveillance est «mené sur une couche qui ne nous est pas accessible». Le public n’a vraiment aucune idée des données que les algorithmes collectent à notre sujet ou de la manière dont elles sont utilisées pour prédire le comportement du public.

En référence à un article du New York Times, dans la vidéo, il est indiqué qu’une chaîne de marketing a pu prédire qu’une fille était enceinte par sa décision de changer la marque de shampooing qu’elle a achetée en choisissant une nouvelle marque sans parfum. La sensibilité olfactive change souvent lorsque les femmes tombent enceintes et l’algorithme a déduit que la fille était enceinte en raison de son nouveau choix de shampooing. Son père a découvert qu’elle était enceinte grâce aux publicités ciblées de produits pour bébés qu’il avait commencé à recevoir avant même qu’elle ne lui annonce la grossesse.

À partir des téraoctets de données résiduelles que le public laisse autour de l’auteur, l’auteur déclare que les grandes technologies «peuvent prédire notre personnalité, ce sont des émotions, sont l’orientation sexuelle, notre orientation politique – toute une gamme d’informations que nous n’avons jamais eu l’intention de divulguer.

Par exemple, lorsque le public télécharge des photos sur Facebook, ce ne sont pas les photos elles-mêmes que les grandes technologies trouvent précieuses, mais les «signaux prédictifs» contenus dans les photos. Des données riches et prédictives peuvent être glanées en analysant la structure faciale de chaque individu dans les photos. Nous savons maintenant que de telles données sont utilisées dans les algorithmes de reconnaissance faciale, mais qui utilise ces données et dans quel but, dans la plupart des cas, les masses ignorantes n’en ont pas la moindre idée. L’auteur déclare que ces données de reconnaissance faciale sont utilisées par l’armée, mais sont souvent vendues à des entreprises individuelles et au gouvernement communiste chinois. La Chine a utilisé des algorithmes de reconnaissance faciale prédictive pour emprisonner littéralement des segments de sa population et, bien sûr, la Chine est le banc d’essai pour les initiatives de notation sociale.Les grandes entreprises de technologie peuvent dire qu’elles protègent la vie privée des gens parce que les photos réelles ne sont pas vendues alors que, en même temps, les «signaux prédictifs» les plus précieux des photos sont vendus sans autorisation. L’auteur déclare: «Notre ignorance est leur bonheur.»

L’auteur couvre ensuite les «expériences de contagion» que Facebook a menées sur des utilisateurs sans méfiance en utilisant des indices subliminaux en ligne, à travers des mots, des symboles et un langage ciblés pour influencer le comportement et les émotions hors ligne du monde réel. Elle a déclaré que des articles savants avaient été rédigés sur ces expériences et que ceux qui avaient mené ces expériences ont convenu que deux choses avaient été apprises des expériences.

  • nous savons maintenant que nous pouvons manipuler des indices subliminaux dans le contexte en ligne pour changer le comportement du monde réel ou les émotions du monde réel
  • nous pouvons exercer ce pouvoir, ces méthodes tout en contournant la conscience des utilisateurs

Google a été l’un des premiers pionniers du capitalisme de surveillance et a été la société qui a conçu le jeu d’amélioration virtuelle de réalité Pokémon Go développé par John Hanke . John Hanke a également développé le logiciel de surveillance nommé Keyhole, dans lequel la CIA a investi et a ensuite été vendu à Google et renommé Google Earth.. Afin de cacher le fait que Google était derrière Pokémon Go, ils l’ont mis sur le marché sous une start-up Niantic. Au lieu d’acheter de la publicité en ligne «cliquable», les entreprises ont maintenant acheté des «modules d’attrait» de localisation de Niantic pour attirer virtuellement les utilisateurs de Pokémon Go via un trafic physique «fréquenté» vers des zones où ils pourraient vendre des produits aux utilisateurs. L’auteur déclare: «C’était le vrai jeu de Pokémon Go.» [Nous ne saurons jamais combien d’enfants ont été agressés en jouant à ce jeu [1] , [2] ].

Quant à des choses comme ces expériences de capitalisme de surveillance mondiale –

Vous êtes destiné à être dans le sentiment d’être servi, vous êtes destiné à être saturé de commodité, de sorte que vous ne le remarquerez pas et que vous ne vous plaigniez pas et toute cette opération d’ombre restera cachée car vous ne poserez pas de questions parce que vous  » re tellement occupé à se divertir.

Alors maintenant, les grandes technologies veulent en savoir plus que ce que les individus font en ligne. Ils veulent en savoir plus sur «votre promenade dans le parc, ce que vous faites dans votre voiture et ce que vous faites chez vous».

Les voix, comme les visages, laissent des données prédictives résiduelles très précieuses. Des microphones sont ajoutés à presque tous les appareils «intelligents» et écoutent constamment tout ce qui se passe autour d’eux. Que regardez-vous à la télévision, quelle musique écoutez-vous, y a-t-il une dispute familiale et dans quelle situation, quelqu’un vient-il chez vous et pour quelle raison…? Dans de nombreux cas, les grandes technologies ne disent pas au public que les microphones sont intégrés à certains produits, par exemple votre thermostat ou votre système de sécurité. Si le public découvre cette fonctionnalité et se plaint, la big-tech s’obscurcit, plaidant souvent ne pas connaître cette fonction ou son ajout à l’appareil étant une erreur du fabricant.Finalement, le public oublie et s’habitue à la commodité du service principal fourni par ces appareils ou le fabricant peut annuler les mises à niveau logicielles ou les options de garantie si l’utilisateur demande que la fonction microphone soit désactivée, tenant ainsi en otage la convivialité de l’appareil.

C’est leur affaire: obscurcir, mal diriger, manipuler notre ignorance avec des mécanismes et des méthodes qui sont indétectables, indéchiffrables – et s’ils vous confrontent, niez-le. Refusez-le aussi longtemps que possible jusqu’à ce qu’ils s’habituent.

Un autre exemple de la façon dont les capitalistes de la surveillance ont commencé à collecter des données prédictives sans le consentement du public est l’utilisation de caméras intégrées aux fonctionnalités des automobiles de nouveaux modèles. Alors que les gens se déplacent, les caméras surveillent tout ce qui se passe dans l’environnement autour de la voiture et transmettent ces données aux grandes entreprises technologiques, les aidant à prendre des décisions lucratives et prédictives.

Une entreprise comme Ford peut combiner ces données de surveillance avec les données de Ford Credit et les ensembles de données combinés peuvent les mettre sur un pied d’égalité ou potentiellement supérieur à celui des plus grands capitalistes de surveillance. «Qui ne voudrait pas investir dans Ford dans ces circonstances?» elle demande.

Chaque fois qu’un individu accepte les termes et conditions d’utilisation d’un produit, il est souvent enfoui dans le jargon juridique une déclaration indiquant que le producteur du produit a le droit de vendre certaines données personnelles à des tiers. À l’insu de l’utilisateur, ces données peuvent être vendues et revendues à l’infini sans que l’utilisateur sache où ces données peuvent aboutir, qui les utilise et à quelles fins.

Au début des années 2000, alors que les grandes entreprises technologiques de la Silicon Valley commençaient à faire de gros profits en développant des applications et des appareils populaires, les capital-risqueurs se sont vite rendu compte que des profits encore plus importants pouvaient être réalisés à partir d’applications et d’appareils produisant ce que l’auteur appelle un «dividende de surveillance». Ils ont réalisé que les applications et les appareils fournissant des «données résiduelles» pouvaient gagner plus d’argent que les fonctionnalités principales de l’application ou de l’appareil. Le capital de surveillance avec son «dividende de surveillance» est depuis devenu le modèle qui imprègne désormais les marchés commerciaux mondiaux. Dans de nombreux cas, l’amélioration de la convivialité d’un produit ou son amélioration pour l’environnement passe au second plan dans la fabrication lorsque les entreprises tirent l’essentiel de leurs bénéfices du «dividende de surveillance» que leur fournit le produit. C’est pourquoi, dans de nombreux cas,les prix des appareils et des applications qui peuvent produire un «dividende de surveillance» sont rendus très abordables pour les consommateurs ou sont même fournis gratuitement. C’est le cas du système d’exploitation Android gratuit de Google sur les smartphones Android ou pourquoi Microsoft a librement fourni son système d’exploitation Windows 10 aux utilisateurs.

Ces 20 ans ont été une lune de miel pour le capitalisme de surveillance, car ils ont été 20 ans en grande partie sans entrave par la loi… pourquoi? Eh bien, la raison la plus importante est qu’ils font des choses qui n’ont jamais été faites auparavant, donc il n’y a pas de lois contre cela … Nous n’avons même pas encore essayé de l’arrêter.

L’argument principal de l’auteur porte sur la surveillance utilisée dans le capitalisme pour les profits des entreprises et elle n’aborde que brièvement les utilisations militaires et gouvernementales des «données résiduelles». Cependant, je pense qu’il devient de plus en plus clair chaque jour que le plus grand danger découle de l’utilisation militaire et gouvernementale de «données résiduelles» sur des populations entières. Combien de temps faudra-t-il avant que les algorithmes prédictifs soient utilisés pour retirer les droits et libertés de certains groupes (Blancs), les accusant de pré-crime basés sur des modèles algorithmiques prédictifs?

Elle déclare –

Le capitalisme de surveillance est sans précédent, nous allons donc avoir besoin de lois et de régimes réglementaires qui répondent directement à ces nouvelles opérations sans précédent.

Je ne vois pas les législateurs et les agences de régulation, qui sont au lit avec des capitalistes de la grande technologie, faire beaucoup pour arrêter de telles pratiques, mais utiliser plutôt ces données de surveillance à leurs propres fins néfastes.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*