L’éthique est-elle Turing-calculable ?

1 – Un rapport Villani très attendu

Il y a trois semaines, le Député mathématicien Cédric Villani remettait officiellement au gouvernement son rapport sur l’Intelligence Artificielle [1].  Le Président de la République annonçait dans la foulée un budget de 1,5 Milliards d’Euros consacré à l’IA. Depuis cet événement, les articles, analyses et commentaires se sont multipliés sur cette mission stratégique pour la France. Dans l’ensemble, l’important travail réalisé par l’équipe Villani et par les membres permanents du Conseil National du Numérique a été salué dans la presse et les médias.

 

La Mission Villani a procédé  à plus de 350 auditions d’experts, de chercheurs, d’industriels, d’entrepreneurs et de professionnels du numérique en couvrant un large périmètre de thématiques. Le rapport de 235 pages reflète bien cet effort méticuleux d’audition et de restitution. Il fournit une feuille de route précise sur la politique à mener en matière d’IA. Tous les sujets ont été abordés, y compris ceux qui fâchent, avec méthodologie et rigueur..

J’ai eu la chance de côtoyer à deux reprises l’équipe d’audition Villani / CNN et ai pu apprécier sa capacité d’écoute et d’ouverture.

Lors de la remise du rapport, le Président Macron a fait un discours très attendu sur les enjeux et défis de l’IA. Ce discours, en phase avec la tonalité du rapport Villani, s’inscrit finalement dans la lignée du discours sur l’IA (de fin de mandat) du Président Obama, dans lequel était souligné le caractère hautement stratégique de l’IA pour l’Amérique. On notera que la majorité des pays industrialisés a diligenté entre 2016 et 2017 au moins un rapport sur l’impact de l’IA.

Certaines critiques (récurrentes sur les réseaux sociaux) prétendent qu’en France, on n’a pas de Licorne de l’IA capable de rivaliser avec les entreprises chinoises et  américaines mais que l’on sait faire, par contre, de beaux rapports qui finissent dans un tiroir… Cette critique est  infondée. L’Allemagne, la Grande Bretagne, la Russie, la Chine, le Canada et les Etats-Unis ont produit entre 2016 et 2017 plusieurs rapports stratégiques sur l’IA. La France  n’est donc pas la seule à commander des rapports. Concernant l’absence de Licornes françaises, la compétition internationale et la toute puissance des GAFA et BATX favorisent effectivement le rachat prématuré des startups prometteuses. Mais il existe aussi des secteurs comme l’armement dans lesquels les acteurs industriels français jouent la course en tête de l’innovation et n’ont rien à envier aux concurrents américains et chinois. En investissant beaucoup dans l’IA (R&D), Thales, Airbus et Dassault développent des technologies, des plateformes et des produits qui sont mondialement reconnus, appréciés et compétitifs. Il faut donc relativiser les critiques et les propos de comptoirs en 140 caractères.

Le rapport Villani fait suite à la mission « FranceIA » mise en place (trop) tardivement, à la fin du précédent quinquennat. Cette première mission dirigée à l’époque par Nathanaël Ackerman, avait permis d’explorer une communauté française de l’IA en pleine évolution [2] avant que la Mission Villani ne vienne dresser un état des lieux plus exhaustif et plus détaillé de  l’écosystème national.

 

2 – Le dogme d’une l’IA éthique, pour tous, au service du bien

L’une des lignes de force du rapport Villani est celle d’une « IA éthique » développée pour le bien commun, accessible à tous, profitant à tous, ouverte à la diversité. Omniprésentes dans le rapport, ces recommandations ont été réaffirmées lors de la remise du rapport par Cédric Villani.

Sur le fond, on ne peut qu’être d’accord avec cette attente d’éthique et d’orientations positives  dans les plateformes embarquant de l’intelligence artificielle. Pour autant, il faut préalablement s’entendre sur la définition d’une éthique projetable sur des composantes d’IA. S’agit-il de contraintes fonctionnelles à implémenter « by design » dans les plateformes ?, de bornes d’application de la solution développée ? de restrictions aux seules données éthiquement admissibles dans le cadre d’un processus d’apprentissage ? de limitation de l’autonomie d’exécution d’une composante de Machine Learning, d’un robot ou d’un véhicule autonome ? On comprend que la recommandation d’éthique impacte le périmètre fonctionnel d’une IA aujourd’hui faible et verticale et qu’elle introduit de fait un niveau de complexité supplémentaire dans la conception des plateformes.

Il n’existe aucun consensus international sur ce qui est éthique et ce qui ne l’est pas en matière d’intelligence artificielle. La géométrie variable de l’éthique du numérique en fonction de la culture, des traditions, des croyances et des biais cognitifs des populations ne facilite pas son intégration « by design » à l’IA. Le demande d’éthique est corrélée au consentement algorithmique de l’utilisateur, aux craintes associées au développement de l’IA et aux empreintes idéologiques du demandeur. Puisque ma catégorisation personnelle de l’éthique de l’IA ne correspond pas forcément à celle de mon voisin, il faut que l’éthique de l’IA soit adaptative à toute échelle et qu’elle satisfasse l’ensemble des attentes.

Un second argument allant à l’encontre d’une IA « universellement éthique » réside dans la forte spécialisation des plateformes.

Considérons cinq exemples :

1) l’éthique d’une IA intervenant dans l’élaboration de contrats d’assurance (calculant le risque du futur assuré) ou de prêts immobiliers,

2) l’éthique d’une IA déterminant le meilleur protocole de traitement d’un patient souffrant d’un cancer,

3) l’éthique d’une IA intervenant dans un système de trading haute fréquence (HFT),

4) l’éthique d’une IA pilotant une voiture autonome,

5) l’éthique d’une IA embarquée dans un système armé semi-autonome puis autonome

Ces cinq cas d’usage de l’IA induisent des séquences fonctionnelles et des temporalités différentes, des marchés différents, des clients différents, des mesures de gains différents, et des mécanismes concurrentiels (relevant de la théorie des jeux) différents. Aussi, vouloir plaquer un canevas universel d’éthique numérique préfabriquée sur ces cinq cas d’usage relève de l’utopie. Dans certains cas, incorporer une contrainte éthique à la plateforme reviendra à la disqualifier immédiatement de la compétition et la rendra inutile et impropre à tout  déploiement. La réflexion éthique doit donc s’effectuer de manière verticale, au cas par cas, en ayant une connaissance la plus exhaustive de l’écosystème sur lequel la plateforme à « rendre éthique » doit être déployée.

Il faut pour cela que la classe politique française accepte, in fine, de remiser ses arguments  idéologiques, égalitaristes, moralistes, qui ne poseront que des verrous français sur des technologies françaises, laissant ainsi la voie libre à des plateformes d’IA chinoises ou américaines, transgressives by design, répondant à la seule éthique de la performance.

Le risque dogmatique d’une IA française ou européenne, garantie Full-éthique, a été parfaitement résumé par Antoine Petit, Directeur Général du CNRS, dans son discours lors de la remise du rapport Villani. Selon lui, l’Europe et la France ne doivent pas se laisser enfermer par la Chine et les Etats-Unis dans le rôle du garant mondial de l’IA éthique au détriment de l’IA Business, de l’IA opérationnelle et stratégique. Sa mise en garde était, dans le contexte de la remise du rapport Villani, d’une très grande pertinence.

Avant de fixer unilatéralement des bornes éthiques sur les composantes d’IA françaises, nous devons prendre du recul et nous interroger : L’éthique est-elle calculable au sens de Turing ?

 

3 – Vers un écosystème de l’IA, mixte et ouvert à la diversité   

Dans son discours sur les enjeux de l’IA, le Président Macron a souhaité que la communauté française de l’IA se diversifie et ne se résume pas aux seuls « Mâles blancs quarantenaires ». La petite phrase, prononcée par le Président sous le ton d’une boutade provocatrice, face effectivement à un parterre d’experts, mâles blancs quarantenaires dominants de l’IA française, n’avait finalement rien d’une boutade. Elle relevait plus du reproche collectif adressé à une communauté à 80% masculine qui n’a pas su ou voulu attirer plus de jeunes filles vers les carrières de l’IA.

La réalité du constat statistique du Président Macron pose le problème de la représentativité de l’ensemble de la population dans un domaine d’activité ou d’expertise. Il aurait d’ailleurs pu faire le même constat dans le football, l’athlétisme, le marathon, le rap, la musique classique ou la littérature. Dans ces domaines d’activité, la représentativité de l’ensemble de la population est très rarement atteinte mais elle ne semble pas freiner l’émergence de la performance et du succès. Alors que doit-on faire ? La faible présence de femmes dans l’écosystème français de l’IA doit nous interroger sur les verrous qui agissent en amont et en particulier dès le collège et le lycée. Les choix de non orientation des jeunes filles vers des formations de sciences « dures » s’effectuent à cette période. Il faut casser cette mécanique des biais cognitifs souvent entretenue au sein même des familles lors de petites discussions mère/fille : « Ma fille, que veux-tu faire plus tard ?,  je t’imagine bien médecin, pharmacien, biologiste, psychologue, sociologue, institutrice, ou dans l’évènementiel » et beaucoup plus rarement « Ma fille, tu pourrais faire des mathématiques, des statistiques, de l’informatique et de l’intelligence artificielle pour construire de grands robots ». Il faut agir sur la phase de pré-orientation des adolescentes qui élaborent une liste mentale durable de métiers à proscrire. D’autres pays comme le Canada, le Japon, la Corée du Sud ont brisé les verrous d’autocensure sur les métiers de l’IA pour les rendre attractifs auprès des adolescentes. En France, pour l’instant, nous ne savons pas le faire.

 

La course mondiale à l’IA qui s’engage nous oblige à revoir nos schémas intellectuels et nos biais idéologiques si nous souhaitons relever les défis qui s’annoncent. L’éthique de l’IA, nécessaire dans sa partie calculable, ne doit pas transformer les futurs produits d’IA « Made in France » en boites de contraintes et de rigidités limitant leur performances. L’esprit d’innovation français saura trouver le point d’équilibre de ce système complexe !

 

Liens

[1] AI for Humanity – rapport Villani :

https://www.aiforhumanity.fr/

https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf

 

[2] Rapport FranceIA :

https://www.economie.gouv.fr/files/files/PDF/2017/Rapport_synthese_France_IA_.pdf

 

 

Share/Partage

Thierry Berthier

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

16 − 2 =