L’intelligence artificielle fascine et inquiète tout autant. Si elle peut épauler efficacement l’humain dans nombre d’activités, elle pourrait se montrer nocive si elle devenait seule décisionnaire du sort des humains, avec le spectre de l’instauration d’une surveillance de masse.

Cette voie choisie par la Chine, l’Union européenne veut l’éviter pour garantir le droit à la vie privée et entend prendre des mesures fortes pour l’empêcher. Le Parlement européen a voté une résolution instaurant un encadrement strict.

intelligence artificielle ia

Constatant que “les systèmes d’identification basés sur l’IA commettent déjà un nombre disproportionné d’erreurs d’identification des groupes ethniques minoritaires, des personnes LGBTI, des personnes âgées et des femmes“, les députés que les algorithmes soient “transparents, traçables et suffisamment documentés“.

Pas question donc de se retrouver avec des boîtes noires dont on ne connaît pas les cheminements de décisions, la qualité de l’entraînement IA et les critères choisis. A ceci devra s’ajouter, dans la mesure du possible, le recours à des logiciels libres mais aussi l’obligation d’une supervision humaine de systèmes IA.

Contre la surveillance généralisée et la notation sociale

Pour éviter les dérives, les députés veulent se montrer fermes et demandent une “interdiction permanente de la reconnaissance automatisée des individus dans les espaces publics” et les contrôles aux frontières.

Plutôt qu’une surveillance généralisée permanente de tous, ils soulignent que “les citoyens ne devraient être surveillés que lorsqu’ils sont soupçonnés d’un crime“. Ils rejettent l’utilisation de bases de données privées de reconnaissance faciale et la police prédictive basée sur des données comportementales. Exit les scénarios à la Minority Report.

Ne voulant pas suivre la tendance, encore chinoise, à la notation sociale, le Parlement européen souhaite interdire de tels systèmes censés s’appuyer sur le comportement ou la personnalité des citoyens pour en juger la fiabilité.

Il rejette enfin l’utilisation de système de contrôles de type iBorderCtrl, constitués d’une intelligence artificielle jouant un rôle de “détecteur de mensonges” pour les voyageurs entrant dans l’UE et demande à la Commission européenne de prendre des mesures contres les Etats membres qui l’utiliseraient.