Le leader mondial des cosmétiques L’Oréal, l’assureur Malakoff Humanis, l’opérateur télécoms Orange France et la société de conseil et de services aux entreprises BCG (Boston Consulting Group) GAMMA annoncent le lancement du label Positive AI afin de rendre plus concrète et accessible l’éthique dans l’intelligence artificielle pour toutes les entreprises à l’heure où les textes européens tentent d’encadrer la création d’intelligence artificielle.
Une association dirigée par une vice présidente d’Orange France
Positive AI a le statut d’association de loi 1901 et a été créée en juin 2022. Elle est présidée par Laetitia Orsini Sharps, qui est vice présidente exécutive d’Orange France depuis octobre 2022, en charge de l’activité grand public et qui rapporte directement à la DG d’Orange France. Elle était auparavant directrice marketing France pour le grand public.
Il est trop difficile pour les entreprises de rendre opérationnelles les recommandations sur l’intelligence artificielle responsable
Ce référentiel plus concret met l’accent sur trois dimensions prioritaires. Tout d’abord, la justice et l’équité afin de prévenir les biais de discrimination et d’iniquité de traitement pouvant exister aussi bien dans les données que dans les algorithmes. Deuxième point, il concerne la transparence et l’explicabilité afin de faire en sorte que les données et les algorithmes soient accessibles, compréhensibles, explicables ou a minima interprétables et reproductibles.
L’intelligence artificielle et l’humain doivent collaborer
Enfin, concernant la préservation de l’intervention humaine, il s’agit de s’assurer de la capacité des organisations à superviser et corriger les décisions automatisées afin que les systèmes d’intelligence artificielle soient conçus pour une collaboration homme-machine au service de l’humain. À compter de 2023, ce référentiel sera la base servant à l’obtention du label Positive AI, attribuable à l’issue d’un audit indépendant.
Le label Positive AI a pour ambition de s’ouvrir à toute entreprise qui gère ou développe des systèmes d’intelligence artificielle
Positive AI souhaite s’ouvrir à la société civile autant que renforcer son expertise. L’association s’est dotée d’un comité d’experts en intelligence artificielle et en éthique qui doit apporter son éclairage afin que le référentiel et les méthodes d’évaluation puissent être enrichis.
Trois universitaires au comité d’experts de l’association
Ce comité d’experts est composé de 3 personnalités. Il s’agit de Raja Chatila, professeur émérite de robotique, d’IA et d’éthique à Sorbonne Université ; Caroline Lequesne Roth, Maître de conférences en droit public, et Responsable du Master 2 Droit algorithmique et gouvernance des données à l’Université Côte d’Azur ; Bertrand Braunschweig, coordonnateur scientifique du programme Confiance.ai.
84% des entreprises affirment que l’intelligence artificielle responsable devrait être une priorité, seules 16% d’entre elles ont développé un programme mature
L’objectif est à long terme. « Cette démarche opérationnelle s’inscrit dans les propositions des pouvoirs publics. À terme, notre ambition est que ce label devienne une référence, en France et en Europe pour tous ceux qui souhaitent développer une Intelligence Artificielle éthique et respectueuse de la société » poursuit-elle. Positive AI est destiné à accueillir d’autres entreprises de toutes tailles qui souhaiteraient s’engager dans cette démarche vers une intelligence artificielle responsable et une vision positive de son usage dans les entreprises.