La Commission européenne a publié le 21 avril ses propositions en matière de régulation de l’intelligence artificielle. Le Parlement européen et les États membres devront se prononcer sur ces propositions dans le cadre de la procédure législative ordinaire. Une fois adoptés, les règlements seront directement applicables dans l’ensemble des pays de l’UE.
Des IA classées en 4 catégories selon leurs risques
Le texte de la Commission classe essentiellement les IA en 4 catégories selon les risques qu’elles peuvent entraîner. Des contraintes différentes s’appliquent à chaque type d’IA. Premier cas, certains systèmes d’IA seront interdits car ils constituent une menace évidente et un risque inacceptable. La Commission cite les IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre.
Au passage, on peut se demander si ce principe d’interdiction concernera les algorithmes qui filtrent et priorisent les informations sur les réseaux sociaux tels que ceux de Facebook, Google ou Twitter. La Commission pour sa part préfère donner comme exemple des jouets disposant d’une assistance vocale qui inciterait des mineurs à avoir un comportement dangereux.
La Commission cite également les systèmes qui permettent la notation sociale par les États. Or, cette notation sociale d’un individu qui est employée en Chine ne réclame pourtant pas spécifiquement l’usage d’une IA puisqu’elle peut fonctionner en additionnant simplement des points selon le comportement d’une personne. En l’occurrence, la Commission Européenne établit probablement ce lien entre IA et notation sociale car la reconnaissance faciale en Chine permet d’identifier les personnes dans l’espace public lorsqu’elles commettent des infractions.
Des IA à risque élevé dans les transports, le recrutement et le passage de frontière
Viennent ensuite les IA qui présentent un risque élevé. Cela concerne par exemple les transports, car les IA sont susceptibles de mettre en danger la vie et la santé des citoyens si l’on pense aux véhicules autonomes, la notation d’épreuves d’examens, les logiciels de tri des CV pour des recrutements, l’évaluation du risque de crédit que représente un individu, l’usage dans le maintien de l’ordre, la vérification de l’authenticité des documents lors d’un passage de frontière, etc.
Ces IA devront montrer patte blanche avant d’être mises sur le marché. Il faudra démontrer la qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les résultats ayant un effet discriminatoire.
Puis, on trouve les IA à risque limité. Ces systèmes devront être transparents. Par exemple, lors de l’usage d’un chatbot, les utilisateurs devront savoir qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non.
Enfin, il y a les IA à risque minime. La proposition législative de la Commission autorise l’utilisation libre d’applications telles que les jeux vidéo ou les filtres anti-spam reposant sur l’IA. La Commission estime que la grande majorité des systèmes d’IA relèvent de cette catégorie. Le projet de règlement ne prévoit pas d’intervention dans ce domaine, car ces systèmes ne représentent qu’un risque minime, voire nul, pour les droits ou la sécurité des citoyens.