Intelligence artificielle : Rapport Villani, intentions et actes

vendredi 27 juillet 2018.
 

L’honorable mathématicien, et néanmoins député En Marche Cédric Villani, a été chargé par le premier ministre d’une mission d’information sur la stratégie française et européenne en intelligence artificielle. Son Rapport prétend présenter les enjeux économiques, techniques, sociaux, environnementaux et éthiques liés au développement de l’Intelligence Artificielle.

L’intelligence artificielle pour le meilleur et pour le pire (Hervé Debonrivage)

Par-delà une prise de conscience du développement souvent autonome d’un secteur dont Vladimir Poutine a dit que « celui qui deviendra le leader dans ce domaine deviendra le maître du monde », les préconisations de Cédric Villani semblent souvent à mi-chemin des exigences, quand elles ne renforcent pas certaines inquiétudes.

L’un des paradoxes de son approche tient au fait qu’elle entend appliquer souvent directement les méthodes de l’économie numérique, sans doute en conformité avec le souhait avancé d’Emmanuel Macron de faire évoluer la République vers une « start-up nation ». Souvent en lieu et place de structures conformes aux usages d’un État de droit, il préfère des constructions baroques : pour évaluer et accompagner les impacts sur l’emploi il préconise un « Lab » ; pour aider à la formation à l’adaptation aux nouvelles formes de travail, il propose des « dispositifs qui ciblent les populations » en rompant avec les dispositifs de choix individuel ; au rebours d’une législation et d’une régulation par le droit, il encourage « les bonnes pratiques » ; au lieu du contrôle par des institutions d’État, il envisage des études internes d’impact.

Le rapport Villani commence par la dimension économique de l’intelligence artificielle. On attend des prouesses de l’Intelligence Artificielle qu’elles permettent de révolutionner toute une série de diagnostics, notamment par l’analyse automatique des images médicales. Il y aurait là un chantier immense pour la recherche publique. Las, le rapport préconise en quelque sorte des partenariats qui consistent à céder l’usage des données collectées par le secteur public – notamment la CNAM, Conservatoire national des arts et métiers – à des projets pilotés par des entreprises privées. La collecte des données, enjeu marchand énorme, aurait été ici faite par le public, et profiterait dans ses applications au secteur privé. S’il entend augmenter le nombre de chercheurs en Intelligence Artificielle, et multiplier par trois le nombre de personnes formées dans trois ans, à l’heure de la réduction de l’emploi public, cela ne se fera qu’au détriment d’autres secteurs de recherche, tout autant estimables. On comprend donc bien pourquoi il finit par encourager le développement des MOOCS, formations en ligne ouvertes à tous, qui permettent d’économiser le nombre de formateurs sans que les résultats soient d’ailleurs pédagogiquement toujours probants.

Évidemment on n’échappe pas dans ce rapport à la litanie des critiques du droit du travail et des normes actuelles par évidences supposées contraires au développement des nouvelles technologies : le rapport envisage « un allégement, temporaire, de certaines contraintes réglementaires pour laisser le champ libre à l’innovation ; un accompagnement des acteurs dans la prise en compte de leurs obligations ; des moyens d’expérimentation en situation réelle ». Toute la société devrait se mettre au diapason de l’Intelligence Artificielle, sans que l’on sache parfois bien pourquoi.

S’il clôt son tour d’horizon par les enjeux éthiques, c’est ici que l’on voit le mieux l’écart entre les bonnes intentions et les mesures préconisées. Là où la tradition juridique a développé des droits de la personne, individuelle, par un curieux retournement il s’agirait d’accompagner la lutte contre l’usage des données par un encouragement aux procédures collectives.

Prendre la mesure du pouvoir ouvert par la nouvelle économie, les dérives déjà constatées ou pressenties, devrait aboutir à un renforcement du contrôle. Or tout au contraire, les principales mesures semblent s’accommoder, conformément à l’idéologie libérale, d’une autorégulation par les acteurs du secteur. Tout le monde s’accorde à signaler le caractère profondément opaque des algorithmes, lesquels renforcent souvent les discriminations sociales, de genre ou raciales. Une étude a souligné qu’aux États-Unis un algorithme d’aide à la décision à la libération préventive favorisait automatiquement deux fois plus les blancs que les afro-américains. Le gouvernement soutenu par Cédric Villani devrait également balayer devant sa porte : en contradiction avec les préconisations de son rapport, mais plus encore avec les dispositions de la loi Informatique et Libertés ou la Loi pour une République Numérique, dans Parcoursup les établissements d’accueil ont obtenu le droit de ne pas dévoiler les algorithmes locaux. C’est que le bon sentiment se heurte bien vite aux droits sacrés des entreprises ; lesquelles peuvent se réfugier derrière le droit des affaires ou la propriété intellectuelle pour ne pas communiquer les modes opératoires des algorithmes. Le rapport Villani n’en dit rien, et se contente d’évoquer une saisine du défenseur des droits en cas d’abus, ce qui reste bien hypothétique tant que les citoyens n’ont pas la possibilité de connaître la manière dont leurs données et leurs dossiers sont traités.

Les enjeux éthiques ont beau être soulignés, là encore, les faits résistent : comment penser la nécessaire augmentation des cours d’éthique dans les formations initiales à l’heure de la réduction des postes d’enseignements ? Quelle éthique sera considérée dès lors qu’une partie de la formation professionnelle est confiée désormais aux chambres professionnelles ?

Plus ambiguë encore semble être l’approche des armes létales autonomes. Ce sujet nourrit de nombreuses craintes, et pour les rassurer le rapport commence par en minimiser les dangers en faisant un parallèle entre les différentes strates d’automatismes dans une voiture – du clignotant au GPS… -. S’il maintient une prévention contre de telles armes, dont on voit bien combien, associées à des algorithmes déterminant des cibles, elles peuvent constituer des moyens terribles, le rapport semble maintenir la recherche possible sur ces armes au nom d’une concurrence internationale dont on peine à déterminer si elle relève de la stratégie militaire ou de l’économie des marchands d’armes. Là encore on a du mal à admettre qu’il suffise qu’au niveau international, un « guide des bonnes pratiques » voie le jour ! Est-ce là tout ce que la France peut réclamer ?

Finalement ce rapport a le mérite de pointer l’exigence d’un débat public concernant les nouvelles technologies du numérique, sans toutefois donner des réponses satisfaisantes en terme de moyens mis en œuvre, et sans oser porter atteinte aux prérogatives déjà obtenues par les géants du secteur.

Benoit Schneckenburger


Signatures: 0
Répondre à cet article

Forum

Date Nom Message