TOP
Algorithmen

Geht’s noch? Wie Algorithmen diskriminieren

Es gibt keine objektiven Entscheidungen, denn der Mensch handelt und entscheidet per se subjektiv aufgrund von Vorlieben, Vorurteilen und vorliegenden Fakten. Ist dem wirklich so? Und wenn ja, können Maschinen objektiver und gerechter agieren, da sie programmierbar sind? Wir haben uns auf die Spur nach diskriminierenden Algorithmen gemacht.

Algorithmen

Bildquelle: Stockfoto Casimir PT/ shutterstoock.com

Schon heute treffen Algorithmen Entscheidungen, die unser aller Leben beeinflussen. Dabei sind diese in den seltensten Fällen transparent, obwohl viele der Entscheidungen diskriminierend und voreingenommen sind. Man sagt dazu auch Algorithmische Voreingenommenheit, oder in Englisch Algorithmic Bias. In den USA kam es beispielsweise zu einem Aufschrei als Folgendes bekannt wurde: Richter*innen nutzten eine Software zur Unterstützung, um zu entscheiden, welche Straftäter*innen frühzeitig entlassen werden sollten. Dabei fiel zunächst niemandem auf, dass das Programm systematisch People of Color benachteiligte, indem es ihnen eine höhere Rückfallrate zuordnete. Ein anderer Fall ereignete sich an der neuseeländischen Passkontrolle, als eine Software die Anerkennung asiatischer Pässe verweigerte. Mit der Begründung, die Reisenden sollen die Augen öffnen.

Diskriminierende Algorithmen

Nicht der maschinelle Vorgang diskriminiert, sondern die Datensätze, die zur Verfügung stehen. Hier zeigen sich strukturelle, gesellschaftliche Probleme, die von den Daten lediglich gespiegelt werden. So ordnet eine Übersetzungssoftware akademischen Berufen automatisch einen männlichen Artikel zu und Ausbildungsberufen einen weiblichen. In der Realität sind Männer häufiger in akademischen Berufen und Frauen arbeiten häufiger halbtags, verdienen weniger und haben generell schlechtere Chancen auf dem Arbeitsmarkt. Die reale Diskriminierung wird somit lediglich maschinell weitergegeben. Nun könnte man die Algorithmen ändern. Rassismus, Misogynie und Antisemitismus einfach (weg)programmieren. So leicht ist es leider nicht, denn die Datensätze sind mittlerweile so groß, dass vorab gar nicht zu erkennen ist, welcher Output daraus entsteht. Somit können fehlerhafte Mechanismen erst im Nachhinein erkannt werden und das nur, wenn Entwickler*innen ihre Ergebnisse infrage stellen.

Das Internet of Things und Big Data

Die Vernetzung von Gegenständen in Netzwerken wird als das Internet of Things (IoT) bezeichnet. Durch die Vernetzung mit dem Internet können die Gegenstände kontrolliert und gleichzeitig die unendliche Informationsressource des Internets genutzt werden. Es entstehen „smarte“ Geräte. Der smarte Kühlschrank, der automatisch Lebensmittel nachbestellt. Das smarte Türschloss, das sich automatisch entriegelt, sobald man vor der eigenen Haustür steht. Wir sprechen von Smart Homes und Smart Cities, von einer smarten Welt, in der sich alles vernetzt und die Grenzen zwischen realer und virtueller Welt immer mehr verschmelzen. Und überall werden fleißig Daten gesammelt.

Algorithmen

Bildquelle: Stockfoto elenabsl/ shutterstock.com

Die große Masse an Daten ermöglicht es Algorithmen möglichst viele Zusammenhänge mit einzubeziehen, um zu einem individualisierten Schluss zu gelangen. Das kann ein Online-Shop sein, dessen Preisangebote sich individuell nach dem Einkommen der User*innen richten. Oder die Algorithmen dienen als Grundlage, um zu entscheiden, ob man kreditwürdig ist. Fitnessarmbänder können den Krankenkassen übermitteln, wer besonders tüchtig ist und demjenigen einen monatlichen Rabatt in der Versicherung gewähren. Daten können auch über euren beruflichen Werdegang entscheiden. So passiert in den USA, als ein Computersystem einer Firma aufgrund der gesammelten Daten herausfand, dass Bewerber*innen, die näher am Firmensitz wohnen, deutlich länger im Unternehmen verbleiben. Dadurch wurden Bewerber*innen aus den Außenbezirken nicht mehr zu Bewerbungsgesprächen eingeladen. Da in den Außenbezirken meistens People of Color wohnten, hat die Software, obwohl sie keine Information über die Hautfarbe eines Menschen hatte, diese systematisch benachteiligt.

Klassifizierung der Daten

Algorithmische Entscheidungen basieren auf der Klassifizierung der Daten in bestimmte Gruppen. Aufgrund immer leistungsfähigerer Computer geschieht dies heute weitaus differenzierter als noch vor 20 Jahren. Trotzdem ändert dies nichts an der Tatsache, dass Entscheidungen aufgrund von Klassifikationen getroffen werden. Wieder ein Beispiel aus den USA. Dort reichte es in der Vergangenheit schon aus, in einem bestimmten Wohnort zu leben, der bei den Banken eine schlechte Bonitätsnote aufwies, um keinen Kredit zu bekommen. Heute entscheiden Algorithmen über die Kreditwürdigkeit und beziehen nicht nur den Wohnort, sondern das Alter, Geschlecht, Bankkonten, Anzahl der Handyverträge und Dauer der Arbeitsverhältnisse mit ein. Jetzt könnte man meinen, dass dadurch weniger Diskriminierung stattfindet. Leider ist das nicht unbedingt der Fall. Vielmehr ist die Diskriminierung weniger offensichtlich, denn auch heute beruhen die Entscheidungen auf datenbasierten Wahrscheinlichkeiten, welche einzelne Menschen oder sogar ganze Personengruppen benachteiligen können.

Algorithmen

Bildquelle: Stockfoto Aleutie/ shutterstock.com

Transparenz ist das Schlüsselwort

Welche Datensätze liegen den Algorithmen vor? Nach welchen Kriterien werden Entscheidungen gefällt? Unternehmen wie Google berufen sich auf das Betriebsgeheimnis und verbleiben stumm. Aber der Druck nach einer prüfenden Instanz wird größer. Der Vorstand der Verbraucherzentrale Bundesverband, Klaus Müller, fordert einen  Algorithmus-TÜV, insbesondere dann, wenn es sich um wichtige Entscheidungen handelt. Dazu zählt er beispielsweise Online-Angebote zu Versicherungstarifen oder Studienplätze. Noch ist der TÜV nur eine Überlegung, aber es bilden sich auch auf anderen Ebenen Initiativen, die für transparentere Entscheidungen eintreten. Eine dieser Initiativen ist die gemeinnützige Organisation Algorithm Watch, die auf diskriminierende, datenbasierte Entscheidungen aufmerksam macht. Ein wichtiger Beitrag, um diskriminierende Algorithmen aufzudecken.

Teaserbild: Stockfoto Yuriy Golub/ shutterstock.com

Eva kam durch Vrenis legendären Flohmarkt zu neverever.me - nach einem Praktikum war klar, hier möchte sie bleiben. Jetzt ist Eva heißgeliebter Bestandteil des Teams. Nachhaltigkeit und Veganismus sind ihre Herzensthemen. Wenn sie nicht bloggt, dann findet ihr sie in der Uni-Bibliothek, wo sie (mal mehr mal weniger fleißig) für ihre Bachelorarbeit recherchiert.