Skip to main content

Cookies and Privacy

We use cookies to improve your experience on our website. To find out more, read our updated Cookie policy, Privacy policy and Terms & Conditions

badre10_Feodora Chiosea Getty Images_robotbusinessmanshakehandscomputer Feodora Chiosea/Getty Images

Ist die Technologie ein neues Grenzland der Nachhaltigkeit?

PARIS – Diskussionen über „Nachhaltigkeit“ kreisen normalerweise um die ökologischen und gesellschaftlichen Verpflichtungen eines Unternehmens, und das aus verständlichen Gründen. Doch der Finanzsektor im Besonderen sollte zwei andere, weniger offensichtliche Dimensionen der Nachhaltigkeit in Betracht ziehen. Regulatorische Nachhaltigkeit ist unverzichtbar, um dem vom Finanzsektor für unsere Gesellschaften ausgehenden systemischen Risiko zu begegnen. Darüber hinaus hat das im Entstehen begriffene neue Grenzland der technologischen Nachhaltigkeit zunehmende Auswirkungen auf Geschäftsmodelle und -strategien.

Alle beschäftigen sich heute mit Daten, Robotik und künstlicher Intelligenz. Doch obwohl diese neuen Technologien enormes Potenzial haben, müssen sich Finanzinstitute auch ihre Risiken, gesellschaftlichen Auswirkungen und ethischen Implikationen bewusst machen.

Was Daten angeht, so sind die Zahlen verblüffend: Neunzig Prozent aller weltweiten Daten wurden in den letzten zwei Jahren erstellt, und jeden Tag generieren wir schätzungsweise 2,5 Trillionen Bytes davon. Es ist in diesem Zusammenhang für Finanzinstitute – die sowohl wichtige Ersteller als auch wichtige Nutzer von Daten sind – unverzichtbar, sich mit den die Erstellung und den Schutz von Daten betreffenden Problemen auseinanderzusetzen.

Die Regulierung in diesem Bereich wird strenger; die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union ist ein Beleg dafür. Glücklicherweise profitieren Banken und Versicherer weiterhin von ihrem Ruf der Vertrauenswürdigkeit. Die Herausforderung für sie besteht nun darin, diesem Vertrauen – trotz der wachsenden Versuchung zur Monetisierung ihres „Datenvermögens“ durch Verkauf oder Nutzung zu Marketingzwecken – gerecht zu werden und es zu bewahren.

Die Robotik verändert derweil alle Branchen und auch den Arbeitsmarkt. Schätzungen zufolge könnten im Verlauf des nächsten Jahrzehnts zwischen einem Viertel und der Hälfte der Beschäftigten im Finanzsektor durch Roboter und KI ersetzt werden. Zwar haben Untersuchungen in Bezug auf deutsche Industriearbeiter keine Belege gefunden, dass Roboter die Gesamtbeschäftigung verringern: Obwohl jeder Roboter zwei Industriearbeitsplätze vernichtet, schafft er zusätzliche Arbeitsplätze im Dienstleistungssektor, die diese Verluste vollständig ausgleichen. Doch haben Roboter Einfluss auf die Zusammensetzung der Gesamtbeschäftigung.

Tatsächlich erleben wir derzeit vermutlich eine weitere Episode von Schumpeters „kreativer Zerstörung“. Robotik und KI werden die Art der angebotenen Arbeitsplätze, ihren Standort und die zu ihrer Ausübung erforderlichen Fertigkeiten ändern. Dieser disruptive Effekt muss sorgfältig gesteuert werden. Banken und andere Finanzinstitute sollten sich daher darauf konzentrieren, die Auswirkungen dieser Technologien auf ihre Beschäftigten zu antizipieren, und in Schulungen und Karriereberatung investieren, um die Beschäftigten während der Umstellungsphase zu unterstützen.

Subscribe now
Bundle2020_web

Subscribe now

Subscribe today and get unlimited access to OnPoint, the Big Picture, the PS archive of more than 14,000 commentaries, and our annual magazine, for less than $2 a week.

SUBSCRIBE

Vermutlich am schwierigsten ist aufgrund ihrer Komplexität und ethischen Implikationen für den Finanzsektor der Umgang mit KI-Technologien. Obwohl die Finanzinstitute seit der globalen Finanzkrise in der Kritik stehen, berücksichtigen sie ethische Überlegungen tatsächlich seit langem. Doch mit der KI betreten wir ein neues Niveau, auf dem Unternehmen potenzielle ethische Risiken antizipieren und die Mechanismen festlegen müssen, um Kontrolle und Rechenschaftspflicht sicherzustellen.

Zwei wichtige Probleme ragen dabei heraus. Das erste sind algorithmische Verzerrungen, die eintreten, wenn ein Algorithmus aufgrund fehlerhafter Annahmen im maschinellen Lernprozess systematisch einseitige Ergebnisse produziert. So entwickelte beispielsweise Amazon 2014 ein Tool, um Software-Ingenieure zu ermitteln, die es ggf. einstellen könnte. Doch berücksichtigte der Algorithmus die Voreingenommenheiten seiner männlichen Entwickler, und infolgedessen begann das System nach kurzer Zeit, Frauen zu diskriminieren Dies führte dazu, dass Amazon das Projekt 2017 aufgab. In jüngerer Zeit haben Apple und Goldman Sachs eine Kreditkarte herausgebracht, die von Einigen als sexistisch bezeichnet wird. So wies Apples Black-Box-Algorithmus für ein Ehepaar, das eine gemeinsame Steuererklärung abgibt und in Gütergemeinschaft lebt, dem Ehemann ein 20 Mal höheres Kreditlimit zu als der Ehefrau.

Der Einfluss der bewussten oder unbewussten Präferenzen der Entwickler von Algorithmen kann bis zu Einsatz dieser Algorithmen und der potenziellen Verstärkung der ihnen innewohnenden Verzerrungen unerkannt bleiben. Zum Glück lassen sich Algorithmen überprüfen und überwachen, um unfaire Ergebnisse zu vermeiden. Während ein Bankmitarbeiter bei Kreditentscheidungen womöglich unbewusst das Geschlecht der Antragssteller berücksichtigt, lassen sich bei einem Algorithmus eine Geschlechtsvariable und andere eng damit korrelierte Faktoren bei der Bonitätsberechnung einfach ausschließen. Aus diesem Grund ist es enorm wichtig, bei der Entwicklung des Modells die richtigen Sicherheitsmechanismen umzusetzen.

Das zweite große ethische Problem betrifft die Transparenz und Erklärbarkeit KI-gestützter Modelle. Da diese Modelle zunehmend bei Beschäftigungs-, Kreditvergabe- und womöglich sogar Rechtsentscheidungen zum Einsatz kommen werden, ist es unverzichtbar, ihre wichtigen Merkmale und die relative Bedeutung jedes einzelnen davon für den Entscheidungsprozess zu kennen. Wir müssen die Black Box öffnen, um die darin enthaltenen Prozesse, Verfahren und – manchmal stillschweigenden – Annahmen zu verstehen. Auch die Regulierung wird uns zunehmend in diese Richtung drängen: Die DSGVO etwa führt das Recht Betroffener ein, „aussagekräftige Informationen über die involvierte Logik“ bei automatisierten Entscheidungen einzuholen, die „Rechtswirkung gegenüber natürlichen Personen entfalten oder diese in ähnlich erheblicher Weise beeinträchtigen“.

Wir haben heute, was die technologische Nachhaltigkeit angeht, noch immer mehr Fragen als Antworten. Das ist für den Moment vermutlich in Ordnung, denn wir sind dabei, uns vorsichtig und mit Sorgfalt auf unbekanntem Gelände vorzutasten. Schließlich hat es viele Jahre gedauert, einen umfassenderen Ansatz in Bezug auf Klima und Umwelt zu entwickeln, und wir haben vermutlich noch einen weiten Weg vor uns. Wir müssen nun anfangen, einen ähnlichen Weg in Richtung technologischer Nachhaltigkeit zu beschreiten, und uns fragen, wie gut wir gerüstet sind, um die praktischen, gesellschaftlichen und ethischen Implikationen neuer, leistungsstarker digitaler Tools zu diskutieren.

Weil diese Fragen Anthropologie und Philosophie genauso sehr betreffen wie Wirtschaft und Politik, müssen wir darauf mit einer offenen, inklusiven Debatte, einem interdisziplinären Rahmen und gut koordinierten gemeinsamen Maßnahmen reagieren. Diese gemeinsame Anstrengung sollte den öffentlichen und den privaten Sektor sowie Verbraucher, Arbeitnehmer und Investoren zusammenbringen.

Auch wenn der technologische Fortschritt mit Risiken verbunden ist, verbessert er letztlich unser aller Leben. Durch verantwortungsvolle Steuerung dieser Fortschritte können wir sicherstellen, dass die Menschheit und die digitale Technologie zusammenkommen, um eine nachhaltigere Zukunft hervorzubringen.

Aus dem Englischen von Jan Doolan

https://prosyn.org/cs01uFZde;