Algorithmen-Formel

Bundesjustizminister Heiko Maas möchte mit Google, Facebook und anderen Netzwerken über ihre Algorithmen sprechen.

Schon vor einigen Wochen äußerte sich Merkel ähnlich und forderte die Offenlegung von Algorithmen, um Echokammern und Filterblasen mit Fake-News und Manipulationen zu verhindern.

Neu an Maas‘ Äußerungen ist für mich sein Hinweis auf das Allgemeine Gleichstellungsgesetz (AGG).

Mag sein, dass es sich dabei vor allem um taktisch-politische Klugheit handelt. Denn Filterblasen und Echokammern kann letztlich niemand verbieten. Schon immer saß, wer sich nicht weiter als zwischen BILD und Stammtisch bewegte, in einer Echokammer – verbieten kann man deswegen weder BILD noch Stammtisch noch ignorantes Verhalten. Das AGG hingegen ist gültiges Gesetz und dient der Umsetzung einer Europäischen Richtlinie – Maas beruft sich also auf ein juristisches verbindliches Werk, dessen Gültigkeit noch über dem Grundgesetz steht.

Und Europa hat bisher keine Scheu gezeigt, gegen Facebook und Google vorzugehen. Das hat der Europäische Gerichtshof öfter und zuletzt auch die Europäische Kommission mit Ihrem Bußgeld-Urteil gegen Google bewiesen.

Eine Berufung auf das AGG ist also eine gute Grundlage für ein Gesetz, das soziale Netzwerke zu mehr Transparenz zwingen möchte.

Aber auch jenseits taktischer Überlegungen finde ich Maas‘ Formulierung vom vorurteilsfreien Programmieren interessant, vielleicht sogar richtungsweisend. Denn wann immer ein Computer zu einem errechneten Ergebnis kommt, scheint das Ergebnis unumstößlich, weil auf Zahlen beruhend, weil unendlich sachlich und objektiv. Doch auch Algorithmen werden von Menschen geschaffen. Welche Größen sie berücksichtigen, welche Werte einen Vorgang auslösen, welche Filter angelegt werden, all das ist nicht per se objektiv, sondern eine Folge menschlicher Entscheidungen. Und Entscheidungen von Menschen sind immer interessenorientiert, willensgeprägt und von Wünschen begleitet.

Algorithmen sind kein Schicksal, ebenso wie mangelnder Datenschutz keine zwangsläufige Folge der Kommunikation in sozialen Netzwerken ist.

Denn es gibt keine objektiven Programmierungen und Algorithmen. Wenn Datenschutz und Privatsphäre zu kurz kommen, liegt das immer daran, dass jemand Interesse daran hat, Daten zu sammeln und in die Privatsphäre einzudringen. Würde Facebook nicht mit punktgenau individualisierter Werbung Geld verdienen wollen, müsste Facebook nur einen Bruchteil der Nutzerdaten speichern und analysieren. Würden Nutzer/innen für Privatsphäre Geld bezahlen, gäbe es vielleicht Netzwerke mit anderen Geschäftsmodellen. Daher ist Facebook nicht nach den Grundlagen eines Privacy by Design programmiert. Privacy by Design meint, eine Programmierung an der Priorität des Datenschutzes auszurichten.

Algorithmen können diskriminieren, weil sie filtern und ignorieren können.

Beides sind im wirklichen Leben wichtige Bestandteile von Diskriminierung. Das vorurteilsfreie Programmieren, von dem Maas spricht, halte ich für einen sehr interessanten Ansatz. Diversity by Design könnte als Denkansatz auch für Künstliche Intelligenz hilfreich sein. Denn je mehr in unseren Leben automatisiert wird, je mehr BigData zur Bewältigung von Alltagssituationen eingesetzt wird, desto wichtiger wird die Frage nach der Position und den Interessen der programmierenden Person (die ja auch eine Organisation oder ein Unternehmen sein kann).

Auch im Blick auf künstliche Intelligenz und selbstlernende Systeme ist die Frage nach den Algorithmen entscheidend. Algorithmen sind die Erziehungsgrundsätze dieser Maschinen. Und über die müssen wir reden.

Am Anfang braucht’s ein Wort:

Die Lehre vom Lernen im Kindesalter: Pädagogik. Die Lehre vom Lernen im späten Lebensalter: Geragogik. Der Lehre von lernenden Maschinen, von der Erziehung künstlicher Intelligenz, dem ethischen Hintergrund des Deep Learning?

Compugogik? Artifigogik? Deepogogik?

Algorithmen und Diversity by Design
Markiert in:             

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.