REBLOG

La Chine veut une banque de données numériques de tous les visages et empreintes digitales

La Chine veut une banque de données numériques de tous les visages et empreintes digitales

PAR JADE · PUBLIÉ 7 MARS 2021 ·Aube Digitale

La Chine ne cesse d’étendre son utilisation des technologies de surveillance de masse et de développer de nouvelles techniques de plus en plus invasives, qui laissent une majorité de personnes dans ce pays de plus en plus mal à l’aise.

Des rapports citent des sondages qui révèlent qu’environ 90 % des citoyens chinois sont mal à l’aise face au niveau de surveillance de masse et à la collecte agressive de leurs données biométriques. Et la réponse des autorités à cela n’est pas de relâcher cette politique, mais de promettre que les données seront en sécurité.

C’est ainsi qu’une initiative lancée par le conseiller principal et membre du Comité national de la Conférence consultative politique du peuple chinois, Tan Jianfeng, est interprétée : il souhaite la création d’une banque nationale de données biométriques, afin de garantir la sécurité des données.

Les empreintes digitales, l’ADN et les données de reconnaissance faciale devraient être incluses dans cette banque, a déclaré Tan, qualifiant la question de la sécurité des données de sécurité nationale et insistant pour que de nouvelles lois soient bientôt adoptées.

Reste à savoir si cela peut accroître le niveau de confort des citoyens chinois à l’idée de vivre dans une société connue pour son utilisation toujours plus large et envahissante des données biométriques.

La technologie qui sous-tend la surveillance de masse en Chine évolue entre-temps vers de nouveaux domaines, au-delà de la simple prise d’empreintes digitales et de la reconnaissance faciale qui nécessitent de trouver une correspondance. La reconnaissance des émotions est en hausse depuis des années, et d’ici 2023, cette partie de l’industrie de la surveillance devrait valoir 36 milliards de dollars.

L’objectif de la reconnaissance des émotions est de prédire les sentiments ou l’état d’esprit d’une personne en recueillant des données montrant les expressions faciales. Cette technologie examine des aspects biométriques tels que les muscles du visage, les mouvements du corps et le ton de la voix.

Ceux qui la critiquent non seulement pensent qu’elle n’est pas scientifiquement fondée et qu’elle repose sur des stéréotypes, mais craignent également que son utilisation à grande échelle ne dégrade davantage la vie privée, la liberté d’expression et les droits de l’homme en général en Chine, et ne favorise davantage la censure et l’intimidation.

L’une des entreprises qui produisent cette technologie, Taigusys, affirme que ses systèmes de reconnaissance des émotions sont installés dans 300 prisons et autres centres de détention, et qu’ils font fonctionner 60 000 caméras en réseau.

Même les représentants de Taigusys sont conscients que les Chinois sont mécontents de l’essor de cette technologie – “mais ils n’ont pas le choix”, ajoutent-ils.

Traduction de Reclaim The Net par Aube Digitale

https://www.aubedigitale.com/la-chine-veut-une-banque-de-donnees-numeriques-de-tous-les-visages-et-empreintes-digitales/

La Chine couvre tous les espaces publics de caméras de surveillance

Des yeux vifs

La Chine a intensifié son panopticon de surveillance ces dernières années, et il semble maintenant que le projet soit en voie d’achèvement – la capacité de surveiller n’importe qui dans n’importe quel espace public du pays semble être à la portée du gouvernement.

Le plan quinquennal de la Chine à partir de 2015 prévoyait qu’une initiative de surveillance appelée programme Sharp Eyes couvrirait 100 % des espaces publics du pays avec les yeux vigilants des caméras de sécurité accessibles au public au cours de l’année 2020, rapporte OneZero. Bien qu’il soit difficile d’évaluer les progrès de ce programme ou de tout autre programme de surveillance chinois depuis l’extérieur, il semble maintenant que le projet soit presque terminé.

Surveillance de quartier

La Chine a d’abord testé le projet Sharp Eyes dans le comté de Pingyi en 2013 avant d’annoncer un déploiement national deux ans plus tard, selon OneZero. Aujourd’hui, il permet à la police – et aux citoyens concernés – d’exploiter un vaste réseau de caméras de surveillance dans les villes comme dans les zones rurales pour repérer les activités suspectes.

En plus de détecter les crimes, OneZero signale que des citoyens chinois se sont branchés sur les caméras et ont appelé la police pour signaler des problèmes d’infrastructure, notamment des plaques d’égout cassées et même des soupçons de fraude commerciale à plusieurs niveaux. Il n’est cependant pas clair combien de caméras alimentent un système du gouvernement central par rapport à celles qui ne sont vues que par la police locale et les communautés.

Lancement

Selon OneZero, des rapports financiers ont montré que certaines municipalités consacrent une part importante de leur budget à ces programmes de surveillance. En 2018, la ville de Zhoukou a dépensé autant pour les réseaux de surveillance que pour l’éducation – un montant qui double celui qu’elle a dépensé pour la protection de l’environnement. Cependant, dans certains cas, les citoyens ont même participé et financé l’installation de caméras dans leur propre communauté.

Il est troublant de constater que tout le monde en Chine est sous surveillance constante. Mais comme le note OneZero, le programme semble presque délibérément conçu pour inspirer la peur et la suspicion chez les voisins, ce qui brosse un tableau troublant de l’avenir du pays.

Traduction de Futurism par Aube Digitale

https://www.aubedigitale.com/la-chine-couvre-tous-les-espaces-publics-de-cameras-de-surveillance/

La Chine utilise la “technologie de reconnaissance des émotions” pour arrêter les gens

Le quotidien public chinois Global Times s’est vanté dans un article publié jeudi que les Chinois sont de plus en plus habitués à l’utilisation de la “technologie de reconnaissance des émotions”, une intelligence artificielle qui permet au gouvernement de suivre les sentiments humains, dans le cadre de la vie quotidienne.

Le Global Times a illustré l’utilité de cette technologie par un exemple dans lequel la police arrête les passagers d’une voiture après avoir utilisé l’intelligence artificielle pour découvrir de la drogue dans leur voiture. La “technologie de reconnaissance des émotions” indique aux policiers que les passagers sont plus nerveux que la moyenne des personnes présentes à un point de contrôle, ce qui leur sert d’excuse pour fouiller la voiture.

Le Parti communiste, notoirement répressif, appliquerait la “technologie de reconnaissance des émotions” dans “divers domaines, dont la santé, la lutte contre le terrorisme et la sécurité urbaine”, selon le Global Times.

Le développement de cette technologie pour criminaliser les sentiments fait suite à des développements de plus en plus alarmants dans l’application des lois chinoises, dont la révélation la plus récente est que le géant chinois de la technologie Huawei développe une technologie de reconnaissance faciale qui peut identifier l’ethnicité d’une personne, ce qui permet à la police chinoise de persécuter plus facilement les membres de la minorité ethnique ouïgoure. De nombreux gouvernements dans le monde, y compris l’administration actuelle et passée des États-Unis, ont accusé la Chine d’avoir commis un génocide contre le peuple ouïghour.

Le Parti communiste a construit plus de 1 000 camps de concentration dans la région natale des Ouïghours, le Xinjiang, où les survivants disent avoir été endoctrinés de force, réduits en esclavage et soumis à des viols et à la torture. Les rapports selon lesquels la Chine stérilise systématiquement les femmes ouïgoures contre leur volonté d’éliminer le groupe ethnique sont particulièrement préoccupants, une pratique qui figure spécifiquement dans la définition du génocide.

Le Parti communiste affirme que les camps de concentration sont des “centres de formation professionnelle” pour les personnes sans éducation et que tous les témoins oculaires sont des menteurs et des acteurs rémunérés.

Le Global Times n’a pas mentionné spécifiquement l’utilisation de la “technologie de reconnaissance des émotions” dans le Xinjiang, mais il ne semble pas que l’expérimentation de ce moyen de communication soit très répandue en Chine sur les détenus des prisons. Au moins six prisons utilisent ouvertement cette technologie sur leurs détenus pour prédire lesquels sont les plus susceptibles d’être violents, a affirmé le journal.

Comme la Chine considère toute critique du Parti communiste comme un crime – souvent formellement identifié comme “subversion du pouvoir de l’Etat” ou “se quereller et provoquer des troubles” – beaucoup de ceux qui ont été testés sont probablement des prisonniers politiques. Il est également illégal en Chine d’avoir des opinions religieuses en dehors de la réglementation de l’État, et seules cinq religions sont légales : Le taoïsme, le bouddhisme, l’islam, le catholicisme et le christianisme protestant.

“En Chine, la reconnaissance des émotions a contribué à l’évaluation des risques des prisonniers dans quelques prisons régionales”, a noté le Global Times, citant une expérimentation dans une prison de Guangzhou en 2019. “Cette technologie aide les agents pénitentiaires à évaluer si un prisonnier présente des risques potentiels, notamment d’éventuels problèmes mentaux et des tendances violentes ou suicidaires, et à estimer s’il est susceptible de répéter une infraction après sa libération”.

La propagande de l’État a cité le directeur du centre de Guangzhou qui a mené les expériences pour justifier son utilisation, qui a détaillé : “Après qu’un prisonnier ait regardé la caméra pendant trois à quatre secondes, ce système de reconnaissance peut connaître ses sept principaux indices physiologiques, y compris la température du corps, les mouvements des yeux et le rythme cardiaque, et les convertir en signes psychologiques indiquant si le prisonnier est calme, déprimé, en colère ou autre à ce moment-là”.

En dehors des prisons, le journal d’État a fait l’éloge de la “technologie de reconnaissance des émotions” pour son utilisation sur la route, où la police peut suivre les émotions de chaque conducteur et arrêter toute personne ayant des sentiments “anormaux”. Cela, a-t-il affirmé, aiderait à prévenir les incidents de rage au volant ou d’autres comportements potentiellement criminels.

Le Global Times a cité des “experts” chinois qui ont affirmé que l’IA chinoise pouvait identifier les émotions d’une personne avec une précision allant jusqu’à 95 %.

“La reconnaissance des émotions est certainement la direction du développement technologique futur de l’humanité”, a déclaré un “expert en neuro-gestion” au journal.

La technologie peut fonctionner soit en surveillant le visage d’une personne pendant une période prolongée, soit en forçant les individus à porter des appareils qui suivent leur pression sanguine, leur température et d’autres facteurs.

Le Global Times a mentionné qu’en dehors de la Chine, le public peut exprimer des inquiétudes pour sa vie privée et sa sécurité dans le cas où leurs gouvernements mettraient en œuvre cette forme d’IA pour surveiller leurs émotions. Le Times a affirmé que cette technologie est déjà utilisée dans plusieurs États, dont les États-Unis, et a insisté, en citant des experts approuvés par le gouvernement chinois, sur le fait qu’il ne s’agit “pas d’une technique maléfique de ‘lecture de l’esprit’”.

Selon le MIT Technology Review, la “technologie de reconnaissance des émotions” représentait déjà un marché de 20 milliards de dollars en 2019.

“La technologie est actuellement utilisée pour évaluer les candidats à un emploi et les personnes soupçonnées de crimes, et elle est testée pour d’autres applications, telles que les casques de Réalité Virtuelle pour déduire les états émotionnels des joueurs”, a observé le point de vente à l’époque, citant une étude menée par AI Now. L’étude a averti que la technologie peut être particulièrement problématique lorsqu’elle est utilisée au-delà de la race et du sexe, car ses conclusions pourraient «amplifier» la discrimination.

Traduction de Breitbart par Aube Digitale

https://www.aubedigitale.com/la-chine-utilise-la-technologie-de-reconnaissance-des-emotions-pour-arreter-les-gens/

Catégories :REBLOG

1 réponse »

Laisser un commentaire