Skip to main content

Cookies and Privacy

We use cookies to improve your experience on our website. To find out more, read our updated Cookie policy, Privacy policy and Terms & Conditions

badre10_Feodora Chiosea Getty Images_robotbusinessmanshakehandscomputer Feodora Chiosea/Getty Images

Is de technologiesector een nieuwe grens voor de duurzaamheid?

PARIJS – Discussies over “duurzaamheid” richten zich doorgaans op de ecologische en sociale verplichtingen van een bedrijf, om begrijpelijke redenen. Maar met name de financiële sector moet twee andere, minder voor de hand liggende, dimensies van duurzaamheid overwegen. Duurzaamheid van het toezicht is cruciaal voor het aanpakken van het systeemrisico dat de financiële sector voor onze samenlevingen inhoudt. Bovendien heeft de nieuwe grens van technologische duurzaamheid steeds meer gevolgen voor bedrijfsmodellen en -strategieën.

Data, robotica en kunstmatige intelligentie (AI) spoken door ieders hoofd. Maar hoewel deze nieuwe technologieën een enorm potentieel hebben, moeten financiële instellingen ook de risicoʼs, sociale impact en ethische implicaties ervan onder ogen zien.

Met betrekking tot data zijn de cijfers verbijsterend: 90% van alle data in de hele wereld is de afgelopen twee jaar gecreëerd, en we genereren iedere dag naar schatting 2,5 triljoen bytes aan nieuwe data. In deze context is het cruciaal dat financiële instellingen – die zowel belangrijke producenten als gebruikers van data zijn – zich bezighouden met de problemen rond de creatie en de bescherming van data.

Het toezicht op dit gebied wordt al strikter, zoals blijkt uit de General Data Protection Regulation (GDPR) van de Europese Unie. Gelukkig blijven banken en verzekeringsmaatschappijen profiteren van hun reputatie betrouwbaar te zijn. De uitdaging is het eren en in stand houden van dat vertrouwen, ondanks de toenemende verleiding om hun bezittingen aan “data” te gelde te maken door ze te verkopen of voor marketingdoeleinden te gebruiken.

De robotica transformeert intussen alle bedrijfstakken en de arbeidsmarkt. Volgens sommige schattingen zou tussen een kwart en de helft van de totale beroepsbevolking van de financiële sector in de komende tien jaar vervangen kunnen worden door robots en AI. Het is waar dat uit onderzoek onder Duitse fabrieksarbeiders blijkt dat er geen bewijzen zijn dat robots de totale werkgelegenheid verminderen: hoewel iedere robot twee fabrieksbanen elimineert, komen er nieuwe banen in de dienstensector bij die dit verlies volledig compenseren. Maar robots beïnvloeden wél de samenstelling van de totale werkgelegenheid.

In feite ondergaan we waarschijnlijk een nieuwe episode van Schumpeters “creatieve destructie.” Robotica en AI zullen het soort banen dat beschikbaar is veranderen, evenals de plek waar zich die banen bevinden en de vaardigheden die ervoor vereist zijn. Met dit disruptieve effect moet behoedzaam worden omgegaan. Banken en andere financiële instellingen moeten zich derhalve richten op het anticiperen op de impact van deze technologieën op hun werknemers, en investeren in hun training en begeleiding om hen tijdens de transitie bij te kunnen staan.

Subscribe now
Bundle2020_web

Subscribe now

Subscribe today and get unlimited access to OnPoint, the Big Picture, the PS archive of more than 14,000 commentaries, and our annual magazine, for less than $2 a week.

SUBSCRIBE

Het is voor de financiële sector waarschijnlijk het moeilijkst om met AI-technologieën om te gaan, als gevolg van hun complexiteit en ethische implicaties. Hoewel financiële instellingen sinds de mondiale financiële crisis fel bekritiseerd zijn, houden zij in feite al lang rekening met ethische overwegingen. Maar met AI komen we op een ander niveau; bedrijven moeten anticiperen op potentiële ethische risicoʼs, en moeten de mechanismen definiëren om controle en aansprakelijkheid te verzekeren.

Er zijn twee grote problemen. Het eerste is algoritme-bias (of AI-bias), wat zich voordoet als een algoritme systematisch bevooroordeelde resultaten oplevert, als gevolg van foutieve aannames tijdens het proces van machine learning. In 2014 heeft Amazon bijvoorbeeld een instrument ontwikkeld om software-ontwikkelaars te vinden die het bedrijf misschien zou willen inhuren, maar het algoritme belichaamde de vooroordelen van de mannelijke technici die het hadden ontworpen. Als gevolg daarvan begon het systeem al snel tegen vrouwen te discrimineren, zodat het bedrijf het in 2017 terzijde schoof. Recenter hebben Apple en Goldman Sachs een creditcard ontwikkeld die door sommigen als seksistisch werd betiteld. Bij een getrouwd stel dat gezamenlijk belastingaangifte deed en in gemeenschap van goederen leefde, gaf het algoritme van Apple de man een kredietlimiet die twintig maal hoger lag dan die van zijn vrouw.

De invloed van de bewuste of onbewuste voorkeuren van de algoritme-ontwikkelaars kan onopgemerkt blijven, totdat die voorkeuren een rol gaan spelen en hun ingebouwde vooroordelen mogelijkerwijs worden versterkt. Gelukkig kunnen algoritmen worden herzien en gemonitord, om ongewenste resultaten te vermijden. Een medewerker van een bank kan bijvoorbeeld onbewust de gender van een aanvrager in overweging nemen bij het nemen van een beslissing over een lening. Maar bij een algoritme kun je eenvoudigweg een gendervariabele en andere nauw verwante factoren uitsluiten bij het berekenen van een score. Daarom is het cruciaal om de juiste waarborgen in te bouwen bij het ontwikkelen van een model.

De andere ethische zorg heeft betrekking op de transparantie en “verklaarbaarheid” van door AI gedreven modellen. Omdat deze modellen steeds vaker zullen worden gebruikt voor het nemen van besluiten over het in dienst nemen van mensen en het verstrekken van kredieten, of zelfs over juridische kwesties, is het essentieel om hun cruciale eigenschappen te kennen, evenals het relatieve belang van elk daarvan in het besluitvormingsproces. We moeten de zwarte doos openen om de processen en procedures, en de soms impliciete veronderstellingen die daaraan ten grondslag liggen, te begrijpen. Het toezicht zal ons ook steeds vaker in deze richting duwen: de GDPR introduceert bijvoorbeeld het recht voor individuen om “betekenisvolle informatie over de betrokken logica” in de geautomatiseerde besluitvorming te verkrijgen, voor zover die “juridische of soortgelijk relevante gevolgen” heeft.

Vandaag de dag hebben we nog steeds méér vragen dan antwoorden over technologische duurzaamheid. Dat is voor het moment waarschijnlijk prima, omdat we ons met de nodige zorg en behoedzaamheid op onbekend terrein begeven. Het ontwikkelen van een samenhangender aanpak van het klimaat en het milieu heeft vele jaren gekost, en we hebben waarschijnlijk nog een lange weg te gaan. We moeten nu een soortgelijke weg inslaan als het gaat om technologische duurzaamheid en onszelf afvragen hoe goed we zijn uitgerust om de praktische, sociale en ethische implicaties te bespreken van nieuwe en krachtige digitale hulpmiddelen.

Omdat deze vragen net zo goed aan de antropologie en de filosofie raken als aan de economie en de politiek, moeten we erop reageren met een open en inclusief debat, interdisciplinaire kaders en goed-gecoördineerde collectieve actie. Deze gedeelde inspanningen moeten de publieke en particuliere sectoren bijeen brengen, evenals consumenten, werknemers en beleggers.

Hoewel de technologische vooruitgang gepaard gaat met risicoʼs, verbetert het uiteindelijk ieders leven. Door de vooruitgang op verantwoordelijke wijze te managen kunnen we ervoor zorgen dat de mensheid en de digitale technologie samenkomen om een duurzamer toekomst voort te brengen.

Vertaling: Menno Grootveld

https://prosyn.org/cs01uFZnl;
  1. guriev24_ Peter KovalevTASS via Getty Images_putin broadcast Peter Kovalev/TASS via Getty Images

    Putin’s Meaningless Coup

    Sergei Guriev

    The message of Vladimir Putin’s call in his recent state-of-the-nation speech for a constitutional overhaul is not that the Russian regime is going to be transformed; it isn’t. Rather, the message is that Putin knows his regime is on the wrong side of history – and he is dead set on keeping it there.

    3