Subvertir le capitalisme algorithmique
14 mars 2017
Depuis quelques années nous sommes entrés de plein pied dans une nouvelle phase du capitalisme avancé. Le cycle entamé avec la récente grave crise économique fait suite aux fordisme (1945-1979) et toyotisme néolibéral (1980-2008). A chaque période correspond un mode de régulation spécifique qui comprend notamment: une innovation technologique majeure réorganisant le système de production des richesses, un nouveau rôle de l’Etat par rapport à l’économie, des rapports modifiés entre patronat et employés ainsi qu’entre classes d’âge, un cadre idéologique renouvelé (les idées dominantes), des changements dans les relations et alliances inter-étatiques.
L’un des aspects les plus saillants de l’actuel mode de régulation réside dans la mobilisation extrêmement profitable, à l’échelle transnationale, de gigantesques banques de données accumulées notamment par les géants américains du web: Google, Amazon, Facebook, IBM, Apple, Microsoft. D’autres firmes, à l’instar de Uber, Spotify, Evernote ou Airbnb, vendent leurs données aux plus offrants. Les nouvelles méthodes algorithmiques et la puissance de calcul exploitent ensuite les milliards de données et de traces numériques que chacun d'entre nous leur met gratuitement à disposition, pour permettre à la fois la désintermédiatisation et « l’uberisation » de l’économie, la mise en place d'une infrastructure numérique pour les futures machines de l'intelligence artificielle (comme par exemple les voitures autonomes), ainsi que surtout les profilage et ciblage extrêmement précis des individus, par exemple pour ce qui est du marketing de produits et de services. Cela inclut le marketing politique, comme l’a révélé le rôle joué par le psychographisme de la firme Cambridge Analytica lors de la dernière campagne électorale américaine.
Les algorithmes sont devenus si puissants qu’ils s'avèrent d’ores et déjà être en mesure de manipuler à vaste échelle nos comportements, entre autres en nous livrant du contenu personnalisé sur mesure. L’Etat aura tendance à faciliter l’accumulation et l’exploitation des données par les grandes firmes, en particulier en fragilisant la protection juridique de la vie privée sur Internet. Ainsi, la présidence Trump s’apprête d’ores et déjà à effacer la législation mise en place par Barack Obama.
Face à ce nouveau phénomène de la double exploitation de l'individu par l'appropriation de ses données numériques, puis l'utilisation de celles-ci contre lui, il importe d’adopter une stratégie de résistance multiple et à plusieurs niveaux. En tout premier lieu, les forces politiques défendant l'intérêt et les libertés de la majeure partie de la population qui subit le nouveau régime d’accumulation des richesses, devraient militer en faveur d’une régulation étatique ou supranationale des algorithmes (qui doit aller bien au-delà de la seule protection de la vie privée sur Internet). C’est l’idée d’une régulation des mécanismes orientant nos choix à notre insu - une sorte de régulation publique des régulations algorithmiques privées. Sans verser dans un dirigisme insupportable, on ne devrait pas tout laisser faire en la matière. Un débat de société – comme celui récemment entamé par la CNIL en France - doit rapidement éclore et porter sur les limites à imposer aux algorithmes.
En même temps, chaque individu peut contribuer à quelque peu subvertir le capitalisme algorithmique. Certaines avant-gardes, à l’instar des artistes Isabelle Arvers (pour ce qui du détournement de contenus disponibles en ligne) et Joana Moll (subvertissant le crowdsourcing aux frontières), s’y emploient déjà. Pour le commun des mortels cela implique de prime abord le refus de « bêtement » prendre part au digital labor, c’est-à-dire à la mise à disposition gratuite des données révélant nos préférences, valeurs et comportements. Nos likes sur Facebook, nos recherches par mots-clés sur Google ou par produits sur Amazon, ou nos échanges sur WhatsApp, pour ne prendre que quelques exemples, agrégés de surcroît avec la géolocalisation des adresses IP de notre ordinateur ou de notre téléphone portable, divulguent nos personnalité, pouvoir d’achat, préférences politiques, déplacements, habitudes et état psychologique. Notre profil est ensuite affiné par les nombreux tests et jeux en ligne que les réseaux sociaux et publicités ne cessent de proposer à notre esprit ludique. Il faut comprendre que ce profilage est également corrélé en temps réel avec d’autres personnes présentant des empreintes virtuelles semblables. Un tel totalitarisme du marché – dont des régimes autoritaires comme la Chine populaire commencent déjà à se servir pour politiquement surveiller et manipuler leurs citoyens - peut cependant être partiellement contré par quelques mesures très simples.
Outre les précautions déjà mentionnées dans un précédent billet de blog (anonymisation de nos activités en ligne en utilisant les navigateurs TOR ou Epic, le moteur de recherche DuckDuckGo, des messageries tels que Protonmail ou Tutanota, ainsi que le réseau social Diaspora), il convient désormais de disséminer occasionnellement un peu partout de fausses pistes afin de brouiller, un tant soit peu, l'incessant travail de profilage des logiciels de l'intelligence artificielle. En d'autres termes, il s'agit de simplement mettre quelques grains de sable dans la machine. Cela implique par exemple :
• de liker de temps en temps, sur Facebook ou sur Twitter, ce que l’on n’aime justement pas du tout ;
• de répondre parfois délibérément à côté lors des tests et jeux qui nous sont proposés en ligne ;
• de recourir à Google ou à Bing pour une recherche qui ne correspond à aucun de nos besoins;
• de clicker régulièrement - sur Amazon, LinkedIn, Airbnb et partout ailleurs – sur des publicités pour des produits, services ou personnages publics qui nous sont parfaitement indifférents ;
• de choisir de façon aléatoire, sur Spotify ou iTunes, des morceaux de musique que nous détestons (sans forcément les écouter) ;
• de poster de temps à autre, sur Twitter, Facebook ou Instagram, des photos de lieux, d’animaux et d’objets qui ne nous intéressent absolument pas.