Logo Zéphyrnet

Le Royaume-Uni veut que les migrants criminels scannent leur visage jusqu'à cinq fois par jour à l'aide d'une montre

Date :

En bref Le ministère de l'Intérieur et le ministère de la Justice du Royaume-Uni souhaitent que les migrants condamnés au pénal scannent leur visage jusqu'à cinq fois par jour à l'aide d'une montre connectée équipée d'un logiciel de reconnaissance faciale.

Les projets de dispositifs de numérisation du visage portés au poignet ont été discutés dans un rapport d'évaluation de l'impact sur la protection des données du ministère de l'Intérieur. Les responsables ont appelé à "un suivi quotidien des personnes soumises au contrôle de l'immigration", selon au Guardian cette semaine, et a suggéré à tous ces participants au Royaume-Uni de porter à tout moment des étiquettes de cheville ajustées ou des montres intelligentes.

En mai, le gouvernement britannique a attribué un contrat d'une valeur de 6 millions de livres sterling à Buddi Limited, fabricant d'un bracelet utilisé pour surveiller les personnes âgées à risque de chute. Buddi semble être chargé de développer un appareil capable de prendre des images de migrants à envoyer aux forces de l'ordre pour les scanner.

Les données de localisation seront également retransmises. Jusqu'à cinq images seront envoyées chaque jour, permettant aux responsables de suivre les allées et venues des criminels connus. Seuls les délinquants étrangers, qui ont été reconnus coupables d'une infraction pénale, seront ciblés, affirme-t-on. Les données seront partagées avec le ministère de la Justice et le ministère de l'Intérieur, dit-on.

"Le ministère de l'Intérieur ne sait toujours pas combien de temps les individus resteront sous surveillance", a commenté Monish Bhatia, maître de conférences en criminologie à Birkbeck, Université de Londres.

«Ils n'ont fourni aucune preuve pour montrer pourquoi la surveillance électronique est nécessaire ou démontré que les étiquettes permettent aux individus de mieux se conformer aux règles d'immigration. Ce dont nous avons besoin, ce sont des solutions humaines, non dégradantes et communautaires.

Les scientifiques de l'apprentissage automatique d'Amazon avons commun quelques informations sur leur travail de développement de modèles linguistiques multilingues qui peuvent prendre des thèmes et un contexte acquis dans une langue et appliquer ces connaissances de manière générale dans une autre langue sans aucune formation supplémentaire.

Pour cette démonstration technologique, ils ont construit un système basé sur un transformateur de 20 milliards de paramètres, baptisé Alexa Teacher Model ou AlexaTM, et l'ont alimenté avec des téraoctets de texte extraits d'Internet en arabe, anglais, français, allemand, hindi, italien, japonais. , marathi, portugais, espagnol, tamoul et télougou.

On espère que cette recherche les aidera à ajouter des fonctionnalités à des modèles tels que ceux qui alimentent l'assistant intelligent Alexa d'Amazon, et que cette fonctionnalité sera automatiquement prise en charge dans plusieurs langues, ce qui leur fera gagner du temps et de l'énergie.

Parlez au chatbot AI de Meta

Meta a déployé sa dernière version de son assistant virtuel de modèle de langage basé sur l'apprentissage automatique, Blenderbot 3, et l'a mis sur Internet pour que quiconque puisse discuter avec lui.

Traditionnellement, ce genre de chose ne s'est pas bien terminé, car le bot Tay de Microsoft montré en 2016 lorsque les trolls du Web ont trouvé la phrase correcte à utiliser pour que le logiciel reprenne et répète de nouveaux mots, tels que des sentiments nazis.

Les gens aiment simplement jouer avec les bots pour leur faire faire des choses qui susciteront la controverse - ou peut-être même simplement utiliser le logiciel comme prévu et il déraille tout seul. Meta s'y est préparé et utilise l'expérience pour essayer des moyens de bloquer le matériel offensant.

"Le développement de techniques d'apprentissage continu pose également des défis supplémentaires, car toutes les personnes qui utilisent des chatbots ne sont pas bien intentionnées, et certaines peuvent utiliser un langage toxique ou autrement nuisible que nous ne voulons pas que BlenderBot 3 imite", Ça disait. « Notre nouvelle recherche tente de résoudre ces problèmes.

Meta collectera des informations sur votre navigateur et votre appareil via des cookies si vous essayez le modèle ; vous pouvez décider si vous souhaitez que les conversations soient enregistrées par le parent Facebook. Soyez averti, cependant, Meta peut publier ce que vous tapez dans le logiciel dans un ensemble de données public. 

"Nous collectons des informations techniques sur votre navigateur ou votre appareil, y compris par l'utilisation de cookies, mais nous utilisons ces informations uniquement pour fournir l'outil et à des fins d'analyse pour voir comment les individus interagissent sur notre site Web", il a affirmé Valérie Plante. dans une FAQ. 

"Si nous publions publiquement un ensemble de données de conversations contribuées, l'ensemble de données publié publiquement n'associera pas les conversations contribuées au nom du contributeur, aux identifiants de connexion, aux données du navigateur ou de l'appareil, ou à toute autre information personnellement identifiable. Veuillez vous assurer que vous êtes d'accord avec la façon dont nous utiliserons la conversation comme spécifié ci-dessous avant de consentir à contribuer à la recherche. »

Annulation des interdictions de reconnaissance faciale

De plus en plus de villes américaines ont adopté des projets de loi permettant à la police d'utiliser un logiciel de reconnaissance faciale après l'adoption d'ordonnances précédentes limitant la technologie.

CNN a rapporté que les autorités locales de la Nouvelle-Orléans, de la Louisiane et de l'État de Virginie faisaient partie de celles qui avaient changé d'avis sur l'interdiction de la reconnaissance faciale. Le logiciel est risqué entre les mains des forces de l'ordre, où les conséquences d'une identification erronée sont préjudiciables. La technologie peut mal identifier les gens de couleur, par exemple.

Ces préoccupations, cependant, ne semblent pas avoir dissuadé les fonctionnaires d'utiliser de tels systèmes. Certains ont même voté pour approuver son utilisation par les services de police locaux alors qu'ils étaient auparavant contre.

Adam Schwartz, avocat senior à l'Electronic Frontier Foundation, dit CNN "le pendule a basculé un peu plus dans le sens de la loi et de l'ordre."

Scott Surovell, sénateur d'État de Virginie, a déclaré que les forces de l'ordre devraient être transparentes sur la façon dont elles utilisent la reconnaissance faciale et qu'il devrait y avoir des limites en place pour atténuer les dommages. La police peut exécuter le logiciel pour trouver de nouvelles pistes dans des affaires, par exemple, a-t-il déclaré, mais ne devrait pas être en mesure d'utiliser les données pour arrêter quelqu'un sans mener d'abord une enquête. 

"Je pense qu'il est important que le public ait confiance dans la façon dont les forces de l'ordre font leur travail, que ces technologies soient réglementées et qu'il y ait un niveau de transparence quant à leur utilisation afin que les gens puissent évaluer par eux-mêmes si c'est exact et/ou abusé", il a dit. ®

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?