“Maschinen machen keine Fehler*”

… lautet der Wahlwerbeslogan des Androiden John of Us in Qualityland, die Versicherungen von “Lemonade” versprechen eine schnelle Abwicklung aller Schadensfälle: “…weil wir Bots haben statt Vertreter und Algorithmen statt Papierkram.”

Kann man Algorithmen mehr als den Menschen vertrauen? Entscheiden sie gerechter oder kaltherziger? “Ja” und “nein”, anstatt ein mögliches “vielleicht”? Sind die Entscheidungen nicht nur schneller, sondern auch rationaler?

“In QualityLand lautet die Antwort auf alle Fragen »OK«”*

Natürlich braucht es nicht unbedingt die abgeschlossene Digitalisierung aller Prozesse, um jeden Rest persönlicher Entscheidungsqualität zu verhindern. Auch mit “echten” Menschen lassen sich Prozesse in solch starre Rahmen zwängen, dass “Schema F” die einzige Lösung ist. Wer schon mal eine Beschwerde bei der DHL loswerden wollte, weiß wie ohnmächtig man sich fühlt, wenn alle Prozesse automatisiert festgelegte Routinen durchlaufen. Es mag wenig Sinn ergeben, der Oma am Telefon zur Lösung der Beschwerde einen digitalen Gutscheincode durchzugeben – das Ticket kann jedoch als “erfolgreich bearbeitet” geschlossen werden.

Bei Algorithmen wäre es da zumindest einfacher, zusätzliche wenn …-dann…-Schleifen einzubauen. Prof. Dr. rer. pol. Georg Herde von der TH Deggendorf beschreibt im Artikel “Auch Maschinen machen Fehler” wie durch Data Science auffällige Transaktionen, die von der Norm abweichen, in Echtzeit erkannt werden können, aber auch welche lenkende (erkennende) Rolle der Mensch in diesem Szenario hat.

Und ein weiteres ethisches Problem stellt sich. Um genauer als jeder Mensch zu arbeiten, zielsicherer zu werden und z.B. verlässlich Bewerber vorzusortiern, werden viele und genaue Daten gebraucht. Individualisierte Daten, die vielleicht die Privatsphäre verletzten und zu viel von uns preisgeben.

Die o.g. Lemonade-Versicherungswerbung hat mich gestern nachmittag zu dem Artikel inspiriert, am selben Abend setzt sich die Zeit im Artikel “Sie entscheiden über unsere Leben” mit der Macht der Algorithmen auseinander. Darin wird auch Bezug genommen zu den “Ethik-Leitlinien für eine vertrauenswürdige KI“, die sich im Namen einer EU-Kommission mit Fragen nach

  • Kontrolle
  • Sicherheit
  • Datenschutz
  • Nichtdiskriminierung
  • Nachhaltigkeit
  • Verantwortlichkeit
  • Transparenz

beschäftigen und zeitnah getestet werden soll.

Blackbox der Entscheidungen

Eine weitere Studie über Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren” setzt sich unter anderem mit Offenlegungspflichten und deren Problemen auseinander:

…stellt sich hier die Frage, wie dieses Recht praktisch umgesetzt werden kann, wenn Maschinelles Lernen mit großen Datensätzen zu opaken Entscheidungen führt. Dies könnte zu einer interessanten vergleichenden Analyse des Erfolgs eines „Rechts zur Erklärung“ im Verbraucherschutzrechts führen, im Unterschied zu dem … „Recht auf Analyse“…Verschiedene Lernalgorithmen produzieren durch Training verschiedenartige Voraussagemodelle, diejeweils durch entsprechende Methoden mehr oder weniger für den Menschen verständlich nachvollzogen werden können.”

Heißt das im Umkehrschluss, wir sollten die Entscheidungen hinnehmen, weil unser begrenzter menschlicher Verstand die Entscheidungsprozesse sowieso nicht nachvollziehen kann?

Die Frage nach der Verantwortung

Neben der Tranzparenz scheint die Verantwortlichkeit ein weiterer Punkt zu sein, der viel Fragen nach sich zieht. Muss das Haftungsrecht und Schadensersatzrecht weiter entwickelt werden, um neue Rechtsfragen abzubilden? Haftet bei bei einem Unfall mit Beteiligung selbstfahrender Autos der Halter oder der Hersteller ? Genügt die Haftung für Produktionsmängel wenn sich die Software selbständig durch Lernen verändert?

Bisher gibt es nur wenig Rechtssprechungen, die sich mit dieser Thematik befassen. Durch die wachsende Anwendung selbststeuernder Technik im Bereich der Pflege, der Medizin, auf der Straße, bei der Vorauswahl von Bewerbern u.v.m. ergeben sich in den nächsten Jahren sicherlich viele Anwendungsfälle.

Aber für alle, die jetzt schon die Allmacht der Algorithmen fürchten oder diese umgehen, indem sie bei Onlinebestellungen einkommensstarke Wohnorte verschleieren und Flüge nie mit MacBook buchen, hier ein tröstliches Schlußzitat aus Twitter. In einem Twitter Posting vom 6. Juli 2018 berichtete @KathasStrophen: Facebook schlägt mir einen “Ist ihr Kind hochbegabt?”-Artikel vor. Zeitgleich semmelt der 10-jährige vor die Terassentür des Ferienhauses, weil er denkt, sie sei offen. Macht euch keine Sorgen, um eure Privatsphäre bei Facebook – überhaupt nix wissen die!

* Zitate aus Qualityland (s.u.)

Quellen und Hintergrundlinks:

Print Friendly, PDF & Email

Bildquellen

  • programming-942487_1920: https://pixabay.com/de/illustrations/programmieren-computersprache-942487/

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.


CAPTCHA-Bild
Bild neu laden