Une-femme-enceinte-innocente-est-emprisonnee-en-raison-dune-tendance
IA

Une femme enceinte innocente est emprisonnée en raison d’une tendance à la reconnaissance faciale défectueuse

Une femme enceinte innocente est emprisonnée en raison d'une tendance à la reconnaissance faciale défectueuse

L’utilisation d’un logiciel de reconnaissance faciale a conduit la police de Détroit à arrêter à tort Porcha Woodruff, 32 ans, pour vol et détournement de voiture, rapporte le New York Times. Enceinte de huit mois, elle a été détenue pendant 11 heures, interrogée et son iPhone a été saisi comme preuve avant d’être relâchée. Il s’agit de la dernière d’une série de fausses arrestations dues à l’utilisation de la technologie de reconnaissance faciale, que de nombreux détracteurs jugent peu fiable.

Les Détails de l’Erreur

L’erreur est d’autant plus remarquable que les images de surveillance utilisées pour identifier à tort Mme Woodruff ne montraient pas de femme enceinte, alors que cette dernière était visiblement enceinte au moment de son arrestation.

Le Déroulement de l’Incident

L’incident a commencé par une recherche automatisée de reconnaissance faciale par la police de Détroit. Un homme cambriolé a signalé le crime et la police a utilisé DataWorks Plus pour comparer les séquences vidéo de surveillance à une base de données de photos d’identité de criminels. La photo d’identité judiciaire de Woodruff, prise en 2015 lors d’une précédente arrestation sans rapport avec l’affaire, a été identifiée comme correspondant à la photo.

Les Suites Judiciaires

Woodruff a été inculpée de vol et de car-jacking avant d’être libérée contre une caution personnelle de 100 000 dollars. Un mois plus tard, les charges retenues contre elle ont été abandonnées par le procureur du comté de Wayne. Woodruff a intenté un procès pour arrestation injustifiée contre la ville de Detroit, et le chef de la police de Detroit, James E. White, a déclaré que les allégations étaient préoccupantes et que l’affaire était prise au sérieux.

Statistiques et Cas Similaires

Selon le New York Times, cet incident est le sixième cas récent où une personne a été accusée à tort en raison de la technologie de reconnaissance faciale utilisée par la police, et le troisième à se produire à Détroit. Les six personnes accusées à tort étaient toutes noires.

A LIRE AUSSI  Entendre Elvis chanter Baby Got Back avec l'IA

La Question du Biais Racial

La ville de Détroit fait actuellement l’objet de trois procès liés à des arrestations injustifiées fondées sur l’utilisation de la technologie de reconnaissance faciale. Des groupes de défense, dont l’Union américaine pour les libertés civiles du Michigan, demandent que davantage de preuves soient recueillies dans les affaires impliquant des fouilles au faciès automatisées, et que l’on mette fin aux pratiques qui ont conduit à de fausses arrestations.

Des études ont montré que la technologie de reconnaissance faciale existante est plus susceptible de générer des faux positifs avec des visages noirs.
Des études ont montré que les technologies de reconnaissance faciale existantes sont plus susceptibles de générer des faux positifs avec les visages noirs.

La Fiabilité Contestée de la Reconnaissance Faciale

« La fiabilité de la reconnaissance des visages… n’a pas encore été établie ». Des études ont montré que les technologies de reconnaissance faciale existantes sont plus susceptibles de générer des faux positifs avec les visages noirs.

Les Risques Inhérents à la Technologie

L’arrestation de M. Woodruff et la récente tendance aux fausses arrestations ont relancé le débat sur la fiabilité de la technologie de reconnaissance faciale dans les enquêtes criminelles. Les critiques affirment que cette tendance met en évidence les faiblesses de la technologie de reconnaissance faciale et les risques qu’elle fait courir à des personnes innocentes.

Analyses et Rapports sur la Technologie

Un rapport de 2022 de Georgetown Law sur l’utilisation de la reconnaissance faciale dans le cadre de l’application de la loi a conclu que la fiabilité de cette technologie n’a pas encore été établie. Des rapports supplémentaires indiquent également des problèmes liés au biais humain, à la qualité des preuves et à la technologie sous-performante.

Les Sources des Erreurs

La faible précision de la technologie de reconnaissance faciale provient de plusieurs sources, notamment d’algorithmes non éprouvés, de biais dans les ensembles de données d’entraînement, et de qualité médiocre des images.

Les Réactions et Changements Politiques

Ces problèmes ont conduit certaines villes à interdire son utilisation, notamment San Francisco, Oakland et Boston. Cependant, certaines villes commencent à reconsidérer cette interdiction.

Les Répercussions sur la Vie de Mme Woodruff

Quant à Mme Woodruff, elle a été hospitalisée pour déshydratation et profondément traumatisée. Son avocat, Ivan L. Land, a insisté sur la nécessité pour la police de mener des enquêtes plus approfondies, plutôt que de se fier uniquement à la technologie.