A display shows a vehicle and person recognition system for law enforcement  SAUL LOEB/AFP/Getty Images

Un principe de précaution face à l’intelligence artificielle

FLORENCE – Pour les dirigeants politiques du monde entier, la meilleure manière de prendre une décision consiste à la fonder sur les faits, aussi imparfaites que puissent être les données disponibles. Mais comment procéder lorsque les éléments de preuve se font rares, voire inexistants ? C’est le dilemme auquel sont aujourd’hui confrontés ceux qui doivent anticiper les retombées des « algorithmes prédictifs avancés » – ces composantes binaires que sont le machine learning et de l’intelligence artificielle (IA).

Dans les cercles académiques, ceux qui s’intéressent à l’IA se divisent en deux catégories : les « singularitaristes » et les « présentistes ». De manière générale, pour les singularitaristes, même s’il est possible que les technologies d’IA représentent une menace existentielle pour l’humanité, les avantages l’emportent sur les coûts. Mais bien que cette école inclue certaines sommités, et qu’elle attire d’importants financements, son rendement académique échoue jusqu’à présent à démontrer sa conception de manière convaincante.

Dans le camp opposé, les présentistes tendent à se concentrer sur l’équité, la responsabilité et la transparence liées aux nouvelles technologies. Ils s’inquiètent par exemple de la mesure dans laquelle l’automatisation impactera le marché du travail. Mais ici encore, les recherches sont peu convaincantes. La revue MIT Technology Review a ainsi récemment comparé les conclusions de 19 études majeures de prévision des disparitions d’emplois, et a déterminé que le nombre d’emplois « détruits » à travers le monde atteindrait 1,8 à 2 milliards.

En somme, aucune « vérité utile » ne se dégage de l’une ou l’autre des parties au débat. À l’heure où les prévisions relatives à l’impact de l’IA oscillent de la simple perturbation du marché du travail à une véritable extinction de l’humanité, le monde a clairement besoin d’un cadre d’analyse et de gestion des ruptures technologiques qui s’annoncent.

L’incomplétude des données constitue évidemment un problème courant pour les chercheurs en technologie. Même dans un contexte « normal », l’étude des technologies émergentes s’apparente à la résolution d’un puzzle dans le noir ou à la bougie. Les hypothèses issues de théories établies ne sont pas remises en question, et l’obtention de résultats favorables consiste à quantifier les probabilités d’événements défavorables, puis à gérer les risques qui s’y rattachent.

Mais de temps à autre émerge un puzzle scientifique « post-normal », que les philosophes Silvio Funtowicz et Jerome Ravetz ont défini pour la première fois en 1993 comme un problème « dans lequel les faits sont incertains, les valeurs remises en question, les enjeux élevés, et les décisions urgentes ». Face à ces défis – dont fait partie l’IA – les mesures politiques ne peuvent se permettre d’attendre que la science les rattrape.

What do you think?

Help us improve On Point by taking this short survey.

Take survey

Aujourd’hui, l’élaboration des politiques relatives à l’IA s’opère principalement dans le Nord planétaire, ce qui néglige les préoccupations des pays moins développés, tout en rendant plus difficile la gestion des technologies à double usage. Pire encore, les décideurs politiques échouent bien souvent à songer suffisamment aux impacts environnementaux potentiels, et se concentre quasi-exclusivement sur les effets anthropogéniques de l’automatisation, de la robotique et des machines.

Même sans données fiables, les responsables politiques doivent progresser dans la gouvernance de l’IA. Et tandis que le monde patiente en quête d’une certitude scientifique (qui n’arrivera peut-être jamais), une solution existe qui pourrait nous guider dans l’inconnu : le « principe de précaution ». Adopté mondialement en 1992 dans le cadre de la Convention de Rio organisée par les Nations Unies sur le développement durable, puis incorporé à l’un des traités fondateurs de l’Union européenne, le principe de précaution énonce que le manque de certitude ne saurait justifier un manque de protection de la santé humaine ou de l’environnement. Cette approche semble adaptée face à l’incertitude d’un avenir fondé sur les technologies.

Le principe de précaution a néanmoins ses détracteurs. Mais si ses mérites sont débattus depuis des années, nous devons accepter que le manque de preuves d’effets défavorables est différent du manque de preuves d’absence d’effets défavorables. Cette idée simple s’applique à une multitude de problématiques du développement humain – de la santé publique à la mortalité infantile. Trois bonnes raisons justifient qu’elle soit désormais appliquée à l’IA.

Pour commencer, l’application du principe de précaution dans le contexte de l’IA contribuerait à rééquilibrer les discussions mondiales liées aux mesures politiques, en conférant aux voix les moins entendues davantage d’influence dans les débats, qui sont aujourd’hui monopolisés par les intérêts des grandes entreprises. L’élaboration des politiques s’en trouverait également plus inclusive, plus délibérative, et produirait des solutions plus proches des besoins sociétaux. L’Institute of Electrical and Electronics Engineers et la Future Society de la Kennedy School of Government de Harvard conduisent d’ores et déjà leurs travaux dans cet esprit participatif. D’autres organisations professionnelles et centres de recherche devraient s’en inspirer.

Par ailleurs, en appliquant le principe de précaution, les organes de gouvernance pourraient réorienter le poids de la responsabilité sur les épaules des créateurs d’algorithmes. Imposer une exigence d’explicabilité des décisions algorithmiques pourrait faire évoluer les incitations, prévenir l’invisibilité, contribuer à des décisions d’affaires plus transparentes, et permettre au secteur public de rattraper le secteur privé dans le développement des technologies. De même, en imposant aux entreprises technologiques et aux États d’identifier et d’envisager plusieurs options, le principe de précaution replacerait au premier plan les problématiques négligées, telles que l’impact environnemental.

Il est rare que la science soit susceptible de contribuer à la gestion d’une innovation longtemps avant que les conséquences de cette innovation soient étudiables. Mais dans le contexte des algorithmes, du machine learning et de l’IA, l’humanité ne peut se permettre d’attendre. Le bien-fondé du principe de précaution réside non seulement en ce qu’il s’ancre dans le droit international public, mais également dans ses antécédents en tant que cadre de gestion de l’innovation dans de nombreux contextes scientifiques. Nous devons l’adopter avant que les bienfaits du progrès se retrouvent inégalement répartis, voire irréversiblement dommageables.

Traduit de l’anglais par Martin Morel

http://prosyn.org/xEAUtFB/fr;

Handpicked to read next

Cookies and Privacy

We use cookies to improve your experience on our website. To find out more, read our updated cookie policy and privacy policy.