Skip to main content

Cookies and Privacy

We use cookies to improve your experience on our website. To find out more, read our updated Cookie policy, Privacy policy and Terms & Conditions

badre10_Feodora Chiosea Getty Images_robotbusinessmanshakehandscomputer Feodora Chiosea/Getty Images

La technologie, nouvelle frontière de la durabilité ?

PARIS – Les discussions autour de la « durabilité » s’axent généralement sur les engagements sociaux et environnementaux d’une entreprise, pour des raisons compréhensibles. Le secteur financier, en particulier, devrait néanmoins considérer deux autres dimensions moins évidentes de la durabilité. La durabilité réglementaire est en effet essentielle pour répondre au risque systémique que le secteur financier représente pour nos sociétés. Par ailleurs, la nouvelle frontière émergente de la durabilité technologique exerce aujourd’hui un impact croissant sur les modèles et stratégies d’affaires.

Les données, la robotique et l’intelligence artificielle occupent actuellement tous les esprits. Or, si ces nouvelles technologies revêtent un potentiel immense, les institutions financières doivent également en comprendre les risques, l’impact social et les implications éthiques.

Concernant les données, les chiffres sont frappants : 90 % des données à travers le monde ont été créées ces deux dernières années, et nous en générons d’après les estimations pour environ 2,5 quintillions de bytes chaque jour. Dans ce contexte, il est essentiel pour les institutions financières – productrices et utilisatrices majeures de données – d’appréhender les problématiques liées à la création ainsi qu’à la protection des données.

Les réglementations dans ce domaine se font de plus en plus strictes, comme l’illustre le Règlement général de l’Union européenne sur la protection des données (RGPD). Fort heureusement, les banques et sociétés d’assurance continuent de bénéficier de leur réputation de fiabilité. Le défi consiste pour elles à maintenir cette confiance en dépit de la tendance actuelle consistant à monétiser leurs « actifs » de données en les revendant ou en les utilisant à des fins de marketing.

Dans le même temps, la robotique transforme tous les secteurs, ainsi que le marché du travail. Selon certaines estimations, entre un quart et la moitié des employés du secteur financier pourraient être remplacés par des robots et par l’IA au cours des dix prochaines années. Certes, plusieurs études relatives aux travailleurs du secteur manufacturier allemand n’ont mis en évidence aucune preuve selon laquelle les robots viendraient réduire l’emploi global, dans la mesure où si chaque robot fait disparaître deux emplois manufacturiers, il créé d’autres emplois dans le secteur des services, qui compensent pleinement cette disparition. Pour autant, les robots impactent bel et bien la composition de l’emploi global.

Nous sommes en effet probablement en train de vivre un nouvel épisode de « destruction créatrice », concept introduit par Schumpeter. Les robots et l’IA modifieront les types d’emplois proposés, leur localisation, et les compétences nécessaires pour les exercer. Cet effet de rupture doit être géré consciencieusement. Les banques et autres institutions financières doivent par conséquent se concentrer sur l’anticipation de l’impact de ces technologies sur leurs employés, ainsi qu’investir dans la formation et l’orientation de carrière, afin de leur venir en aide au cours de cette transition.

Subscribe now
Bundle2020_web

Subscribe now

Subscribe today and get unlimited access to OnPoint, the Big Picture, the PS archive of more than 14,000 commentaries, and our annual magazine, for less than $2 a week.

SUBSCRIBE

Les technologies d’IA sont sans doute les plus difficiles à appréhender pour le secteur financier, en raison de leur complexité et de leurs implications éthiques. Si les institutions financières ont été critiquées depuis la crise financière mondiale, elles tiennent compte depuis de nombreuses années des considérations éthiques. Mais avec l’IA, nous passons à un tout autre niveau, dans lequel les entreprises doivent anticiper les risques éthiques potentiels, et définir les mécanismes permettant d’assurer contrôle et responsabilité.

Deux problématiques majeures se dégagent. La première réside dans le biais algorithmique (ou biais de l’IA), qui survient lorsqu’un algorithme produit des résultats systématiquement faussés, en raison d’hypothèses erronées au niveau du processus de machine-learning. En 2014, par exemple, Amazon a développé un outil destiné à identifier les ingénieurs en logiciels embauchables par l’entreprise. L’algorithme utilisé portait toutefois en lui les idées préconçues des ingénieurs qui l’avaient créé. Résultat, le système a rapidement commencé à discriminer les femmes, ce qui a conduit la société à l’abandonner en 2017. Plus récemment, Apple et Goldman Sachs ont lancé une carte de crédit que certains ont accusée de sexisme. Pour un couple marié effectuant des déclarations fiscales conjointes et vivant sous le régime de la communauté de biens, l’algorithme secret d’Apple octroyait en effet au mari une limite de crédit 20 fois supérieure à celle de son épouse.

L’influence des préférences conscientes ou inconscientes des créateurs d’un algorithme peut ainsi demeurer indétectée jusqu’à ce que l’algorithme soit utilisé, et les idées préconçues de ces créateurs être potentiellement amplifiées. Les algorithmes peuvent heureusement être réexaminés et contrôlés afin d’éviter les résultats injustes. Un employé de banque peut par exemple considérer inconsciemment le sexe d’un demandeur au moment de prendre une décision de prêt. Mais avec un algorithme, vous pouvez tout simplement exclure la variable du sexe et d’autres facteurs étroitement corrélés au moment de calculer un score. C’est pourquoi il est si crucial d’appliquer des garde-fous appropriés dans le cadre du développement d’un modèle.

La seconde grande problématique éthique concerne la transparence et « l’explicabilité » des modèles fondés sur l’IA. Ces modèles étant voués à être de plus en plus utilisés dans les décisions de recrutement, de prêt, voire dans les décisions judiciaires, il est essentiel d’en connaître les caractéristiques fondamentales, ainsi que leur importance respective dans chaque processus décisionnel. Nous devons ouvrir la boîte noire pour comprendre les processus, les procédures, et les hypothèses parfois implicites qu’elle contient. Les réglementations nous pousseront également de plus en plus dans cette direction : le RGPD introduit par exemple le droit des personnes d’obtenir « des informations significatives concernant la logique employée » dans les décisions automatisées qui produisent des « effets juridiques ou effets similaires ».

Les questions sont encore aujourd’hui plus nombreuses que les réponses concernant la durabilité technologique. C’est sans doute naturel pour le moment, puisque nous évoluons avec soin et précaution en territoire inconnu. Après tout, l’élaboration d’une approche plus globale du climat et de l’environnement a nécessité de nombreuses années, et il nous reste probablement encore beaucoup de chemin à parcourir. Nous devons aujourd’hui entreprendre une démarche similaire autour de la durabilité technologique, et nous demander à quel point nous sommes armés pour discuter des implications pratiques, sociales et éthiques de nouveaux outils numériques puissants.

Dans la mesure où ces questions touchent autant à l’anthropologie et à la philosophie qu’à l’économie et la politique, nous devons y répondre au travers d’un débat ouvert et inclusif, de cadres pluridisciplinaires, et d’une action collective intelligemment coordonnée. Cet effort commun doit faire intervenir les secteurs public et privé, ainsi que les consommateurs, employés et investisseurs.

Si toutes les avancées technologiques s’accompagnent de risques, elles finissent toujours par améliorer l’existence des individus. En gérant ces progrès de manière responsable, nous pouvons faire en sorte que l’humanité et les technologies numériques s’allient pour créer un avenir plus durable.

Traduit de l’anglais par Martin Morel

https://prosyn.org/cs01uFZfr;
  1. guriev24_ Peter KovalevTASS via Getty Images_putin broadcast Peter Kovalev/TASS via Getty Images

    Putin’s Meaningless Coup

    Sergei Guriev

    The message of Vladimir Putin’s call in his recent state-of-the-nation speech for a constitutional overhaul is not that the Russian regime is going to be transformed; it isn’t. Rather, the message is that Putin knows his regime is on the wrong side of history – and he is dead set on keeping it there.

    3