La Cnil souhaite que l’homme garde la main face à l’intelligence artificielle. Elle vient de remettre son rapport issu de la consultation de 3000 participants entre janvier et octobre 2017.
Création d’une plateforme d’audit
Sa proposition principale est la création d’une autorité de contrôle des algorithmes, baptisée « plateforme d’audit des algorithmes ». De plus, la Cnil veut multiplier les instances en charge de faire entrer le sens de l’éthique chez toutes les parties prenantes, entre concepteurs, entreprises et société civile. La Cnil souhaite également contrer l’effet boîte noire de l’I.A. et faire en sorte que l’I.A. soit loyale vis à vis des individus et des communautés.
Au passage, l »usage du terme de communauté par la Cnil apparaît étonnant dans une société française qui apparaît menacée de fragmentation voire d’implosion face à des revendications multiples tant politiques que commerciales, sociétales, morales ou religieuses. La Cnil ouvre la voie à chaque groupe d’intérêt pour s’opposer à un algorithme s’il estime qu’il nuit à ses intérêts.
Isabelle Falque-Pierrotin, présidente de la Cnil, a présenté ce rapport de synthèse du débat public sur les enjeux éthiques des algorithmes et de l’intelligence artificielle le 15 décembre en présence de Mounir Mahjoubi, secrétaire d’Etat chargé du Numérique.
L’algorithme doit être loyal à titre personnel et pour des communautés
Cette loyauté collective concernerait des communautés ou de grands intérêts collectifs dont l’existence pourrait être directement affectée. En matière de vigilance, la Cnil veut organiser un questionnement régulier à l’égard de l’I.A. Des comités d’éthique doivent assurer un dialogue systématique et continu entre les différentes parties-prenantes : les concepteurs, les entreprises et les citoyens.
Six propositions
La Cnil émet 6 recommandations. La principale est de constituer une plateforme nationale d’audit des algorithmes. De plus, il s’agit de former à l’éthique tous les acteurs de la « chaîne algorithmique », les concepteurs, les professionnels et les citoyens). La Cnil veut rendre les systèmes algorithmiques compréhensibles afin que chaque humain comprenne les ressorts de la machine. La Cnil demande que le design des systèmes algorithmiques contre l’effet « boîte noire » ;
Le Cnil veut encourager la recherche sur l’I.A. éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général. Elle veut renforcer la fonction éthique au sein des entreprises, par exemple en élaborant des comités d’éthique, en diffusant de bonnes pratiques sectorielles ou en révisant les chartes de déontologie.
L’homme ne doit pas croire que les algorithmes savent mieux que lui
La Cnil pointe également les biais, les discriminations et les exclusions dus aux algorithmes et à l’intelligence artificielle. Ces phénomènes sont parfois volontaires mais le plus souvent inconscients et difficilement repérables, estime-t-elle. Elle souhaite que l’on trouve une réponse à cette question.
L’intérêt collectif et la personnalisation
Il faut préserver l’intérêt collectif et la mutualisation des risques
Autre point, l’I.A. nécessite d’importantes quantités de données à des fins d’apprentissage. La Cnil s’interroge sur la manière de développer l’I.A. tout en protégeant impérativement les libertés individuelles. La Cnil s’interroge sur la manière de sélectionner de manière pertinente les données qui vont nourrir les algorithmes.
Que faire face aux humains qui aiment des robots ?
Les champs d’exploration des algorithmes et de l’intelligence artificielle abordés par le rapport concernent les médias, la vie publique et politique, l’éducation, la culture, la santé, la justice, la sécurité et la défense, la banque et la finance, l’emploi et le recrutement.
On rit !! Après la « taxe sur les robots » voila lA éthique et les algorithmes soumis à contrôle !!!! Les membres de la CNIL ont ils une idée de ce dont ils parlent ? Quant à la RGPD, au secours !!!
Heureusement, dans Intelligence artificielle il y a « artificiel », Cela nous change.