L’IA envisagée par les policiers de Londres pour lutter contre la pédocriminalité
✨ AI Summary
🔊 جاري الاستماع
SociétéL’IA envisagée par les policiers de Londres pour lutter contre la pédocriminalitéLa police responsable du Grand Londres a indiqué qu’elle étudiait le recours à l’intelligence artificielle pour lutter contre les abus sexuels sur mineurs.Par Maïlis Rey-Bethbeder Le 13 avril 2026 à 17h17La police londonienne envisage d'avoir recours à des outils d'intelligence artificielle pour gagner du temps et limiter l'exposition de ses agents à des contenus choquants.(Illustration) AFP/Henry NichollsRéagirEnregistrerPartagerIdentifier plus tôt les victimes, réduire le délai d’intervention… et s’épargner du temps d’exposition aux contenus les plus choquants. La police londonienne (Metropolitan Police, surnommée « Met ») a indiqué qu’elle envisageait d’avoir recours à l’intelligence artificielle afin de lutter contre les abus sexuels sur mineurs, a rapporté la BBC.Le commissaire adjoint Matt Jukes a déclaré que « le jugement humain, un contrôle rigoureux et la prise en charge des victimes restent au cœur de chaque enquête ».Gagner en rapidité et protéger le personnelLa Metropolitan Police précise avoir enquêté sur plus de 5 400 infractions d’abus sexuels sur mineurs au cours de l’année écoulée, et que plus de 1 300 enfants ont nécessité une protection. La police a fait savoir que les enquêtes sur les cas d’abus et d’exploitation sexuels d’enfants en ligne sont en augmentation constante et qu’elle gère actuellement plus de 12 % des affaires au niveau national.Actuellement, les agents examinent manuellement les contenus pédopornographiques afin de relier les victimes à des affaires connues ou d’identifier les victimes inconnues nécessitant une protection. Le contenu est ensuite classé selon son degré de gravité dans les catégories A, B et C. Les autorités estiment que des outils d’IA pourraient faciliter ce processus d’identification et peut-être classer les dossiers dans des catégories sans exposer les policiers à ce contenu choquant.À voir aussiPar ailleurs, une autre technol...




