Banken für digitale Ethik und Algorithmic Governance

Von Ralf Keuper

Wenn man den verschiedenen Technologiekritikern Glauben schenkt, dann wird unser Verhalten schon jetzt im hohen Maß von Algorithmen gesteuert bzw. beeinflusst. Das Problem an Algorithmen ist, dass ihr Funktionsmechanismus für den Normalsterblichen kaum verständlich ist. Kommen dann noch Schlagworte wie Big Data, Machine Learning, Deep Learning, oder ganz allgemein der Begriff Künstliche Intelligenz hinzu, wird die Lage vollends unübersichtlich. Das führt irgendwann zu der Frage, ob wir Institutionen, Treuhänder oder Notare benötigen, die für die nötige Transparenz beim Einsatz Algorithmen sorgen und auf die Einhaltung von Regeln achten. Bereits vor einigen Jahren forderte Yvonne Hofstetter eine Treuhandstelle für Algorithmen. In dem Zusammenhang tauchen immer wieder Forderungen nach einem TÜV für Algorithmen auf. Andere wiederum plädieren für ein Digitalgesetz.  Darin würden Digitalisierungsunternehmen wie Amazon und Google dazu verpflichtet, eine Art Beipackzettel ihrer Angebote zu veröffentlichen. Bestandteile dieses Beipackzettels wären u.a. folgende Erläuterungen/Hinweise:

  • dass jede Nutzung der digitalen Oberflächen ggf. mit persönlichen Daten bezahlt wird
  • dass Werbeprofile jedes Nutzers erstellt werden, um von den Digitalunternehmen mit hohem Gewinn u.a. an die werbetreibende Industrie veräußert werden. ..
  • wie sich vorangegangene Datenlieferungen der “Nutzer” im Rahmen von Bestellungen, Einträgen, digitalen Tätigkeiten jeder Art auf die aktuelle Profile, die neuen Suchen, Bestellungen, Einträge sowie digitalen Tätigkeiten des Nutzers auswirken (inBrauchen wir ein Digitalgesetz?).

Bei der Stiftung Neue Verantwortung leitet Dr. Tobias Knobloch das Projekt “Algorithmen fürs Gemeinwohl”. Bei Algorithm Watch versucht man derzeit in dem Projekt Open Schufa durch Reverse Engineering den Schufa-Score zu knacken, worüber die Schufa ihrerseits nicht sonderlich angetan ist. Eine weitere Anlaufstelle im Netz zu dem Themenkomplex ist das Projekt Algorithmenethik.

In Algorithmic governance: Developing a research agenda through the power of collective intelligence stellen die Autoren mehrere Modelle vor, mit deren Hilfe die unsichtbare Macht der Algorithmen veranschaulicht und der Kontrolle zugänglich gemacht werden kann. Beispielhaft dafür ist die Taxonomie von Tal Zarsky:

In dem erwähnten Beitrag wird auch das Research framework von Kitchin vorgestellt. Daraus:

While an algorithm is commonly understood as a set of defined steps to produce particular outputs it is important to note that this is somewhat of a simplification. What constitutes an algorithm has changed over time and they can be thought about in a number of ways: technically, computationally, mathematically, politically, culturally, economically, contextually, materially, philosophically, ethically and so on.

Algorithmen sind demnach niemals neutral. Das gilt ganz allgemein für jede Art von Softwarecodes. Auch Daten und Informationen sind nicht ein objektives Abbild der Realität. Sie sind eine Repräsentation von vielen. Daten sind, wie Thomas Christan Bächle in Digitales Wissen, Daten und Überwachung schreibt, nicht selbstevident. Er schreibt:

Durch die Digitalisierung und Computerisierung wird der Algorithmus zum mächtigen Agenten einer unsere Kultur beherrschenden Logik des Wissens, die in Konkurrenz zu anderen Logiken des Wissens, wie Expertensystemen, der Wissenschaft als System zur Erzeugung legitimen Wissens oder Gott steht bzw. diese abgelöst hat. Doch darf die Logik der Datenbank und des Algorithmus nicht als eigenständige Determinante begriffen werden. Vielmehr sind in die Datenstrukturen immer schon soziale und kulturelle Machtstrukturen eingeschrieben, die von ihnen reproduziert werden: Wer programmiert die Algorithmen, welche Einheiten werden überhaupt als “Daten” definiert, welches Klassifikationssystem wird dafür benutzt, und wer hat Zugriff und Definitionsmacht? Die Überbetonung einer eigenständigen algorithmic agency erweist sich als unangemessen, denn auch diese Technologie ist Ausdruck bestehender soziokultureller Machtstrukturen. Die Handlungsmacht der Algorithmen ist damit starken Beschränkungen unterworfen.

Kurzum: Algorithmen sind nicht allmächtig und schon gar nicht allwissend.

Welchen Beitrag könnten Banken oder bank-ähnliche Institute für mehr Transparenz leisten? Könnten sie die Rolle von Treuhändern, von Beratern übernehmen, die den Kunden zeigen, welche Algorithmen ihr tägliches Handeln in welcher Weise beeinflussen und was man dagegen unternehmen kann? Könnten sie beispielsweise Personal AI Guardians und entsprechende Schulungen/Beratungsleistungen anbieten?

Consumers will need to be aware of differential privacy and federated learning so that they will know to adopt platforms with these privacy protections, or demand that the platforms they use adopt them. Using personal AI guardians will also likely require a considerable amount of digital literacy, from setting up and administering the guardian to interpreting any feedback it provides. In particular, users of any AI systems with overrides should be educated about when they should expect to take matters into their own hands (in: Artificial Intelligence as a Digital Privacy Protector).

Das wäre nur ein Beispiel.

Weitere Informationen:

Explainable AI could reduce the impact of biased algorithms

Damit Maschinen den Menschen dienen Lösungsansätze, um algorithmische Prozesse in den Dienst der Gesellschaft zu stellen – Arbeitspapier –

Dieser Beitrag wurde unter Banking veröffentlicht. Setze ein Lesezeichen auf den Permalink.