Crédit social chinois : pourquoi le mythe de la note à la Black Mirror masque une réalité plus complexe

Crédit social chinois

Crédit social chinois : la Chine est souvent présentée comme le laboratoire ultime de la surveillance. Dans l’imaginaire collectif, chaque citoyen serait noté en permanence. Une mauvaise action ferait baisser sa note. Une remarque critique envers le pouvoir empêcherait de voyager, d’obtenir un crédit ou d’inscrire ses enfants à l’école.

Cette vision spectaculaire doit beaucoup aux comparaisons avec la série Black Mirror. Pourtant, la réalité est plus nuancée. Le crédit social chinois existe, mais il ne fonctionne pas comme un système national unique qui attribuerait une note à chaque habitant.

En revanche, derrière ce mythe se cache une autre question, beaucoup plus dérangeante. Car si la Chine expérimente des formes de contrôle social, les sociétés occidentales développent elles aussi des mécanismes de notation, de profilage et de surveillance. Ils sont simplement moins visibles et souvent confiés à des entreprises privées.

Ceci est un extrait d’une interview, sélectionné par votre média Green Finance, qui donne la parole à tous, même si cela peut vous déplaire et nous déclinons toutes responsabilités sur la source et les propos de cet extrait.

Aujourd’hui, cette logique s’est industrialisée.

Le score de crédit décide déjà de nombreuses vies

Aux États-Unis, le score de solvabilité est devenu un élément central de la vie quotidienne.

Il influence la possibilité d’obtenir un prêt, de louer un logement ou de souscrire une assurance. Dans certains cas, des employeurs demandent aussi l’historique financier des candidats.

Une mauvaise note peut compliquer l’accès à l’emploi, au logement ou au crédit.

Ce système produit lui aussi des inégalités. Des études ont montré qu’il pénalise davantage certaines catégories sociales et certains groupes minoritaires.

L’intelligence artificielle amplifie les biais

De plus en plus d’entreprises utilisent des algorithmes pour attribuer des scores aux individus.

Ces systèmes prétendent être plus objectifs que les méthodes traditionnelles. Pourtant, ils reproduisent souvent les mêmes discriminations.

Des logiciels de recrutement ont par exemple favorisé certains profils masculins au détriment des femmes. D’autres applications prétendent mesurer la fiabilité d’un client à partir de sa personnalité, de ses habitudes en ligne ou de son comportement sur les réseaux sociaux.

Dans cette logique, chaque donnée devient un indice. Une recherche internet, un achat ou une interaction sur une plateforme peut contribuer à établir un profil.

Une société de notation déjà bien installée

Les applications de transport, les plateformes de livraison, les banques, les assureurs, les employeurs et les réseaux sociaux fonctionnent déjà selon cette logique.

Un chauffeur est noté par ses passagers. Un salarié est évalué par ses collègues. Un client est analysé selon ses achats. Un candidat à l’embauche peut être trié par un logiciel avant même d’avoir rencontré un recruteur.

Dans certains cas, ces évaluations ont des conséquences directes. Elles peuvent faire perdre un emploi, empêcher l’accès à un prêt ou faire augmenter le prix d’une assurance.

Le plus inquiétant reste sans doute le manque de transparence. La plupart du temps, personne ne sait précisément quelles données sont utilisées, comment elles sont croisées, ni pourquoi un algorithme décide qu’un individu représente un risque.

Quand la surveillance devient invisible

La force de ces systèmes est qu’ils ne ressemblent pas à une dictature visible. Il n’y a pas toujours de caméra au-dessus de chaque rue ni d’écran géant affichant le visage des contrevenants.

La surveillance contemporaine est plus discrète. Elle passe par les téléphones, les cartes bancaires, les objets connectés, les moteurs de recherche et les plateformes numériques.

Agit sans bruit. Elle collecte des informations en continu. Puis elle transforme ces données en décisions qui influencent la vie quotidienne.

Le risque est alors de s’habituer progressivement à cette logique. D’accepter qu’un logiciel décide qui est fiable, qui mérite un avantage, qui représente un danger ou qui doit être exclu.

La vraie question n’est plus de savoir si le crédit social existe

Le débat ne porte plus seulement sur la Chine. Il concerne toutes les sociétés qui utilisent des technologies capables de surveiller, de classer et de noter les individus.

La véritable question est désormais de savoir qui contrôle ces outils.

Sont-ils encadrés par la loi ? Peuvent-ils être contestés ? Les citoyens savent-ils quelles données sont collectées sur eux ? Les entreprises et les administrations sont-elles réellement tenues de rendre des comptes ?

La dystopie imaginée par la série Black Mirror n’existe peut-être pas encore sous sa forme la plus extrême. Mais ses mécanismes sont déjà là.

Ils se déploient lentement, souvent au nom de la sécurité, de l’efficacité ou de la personnalisation. Et plus ils deviennent invisibles, plus ils deviennent difficiles à remettre en cause.

À lire aussi : Nature 2050 : dix ans d’actions pour réinventer les territoires face au changement climatique