… lautet der Wahlwerbeslogan des Androiden John of Us in Qualityland, die Versicherungen von „Lemonade“ versprechen eine schnelle Abwicklung aller Schadensfälle: „…weil wir Bots haben statt Vertreter und Algorithmen statt Papierkram.“
Kann man Algorithmen mehr als den Menschen vertrauen? Entscheiden sie gerechter oder kaltherziger? „Ja“ und „nein“, anstatt ein mögliches „vielleicht“? Sind die Entscheidungen nicht nur schneller, sondern auch rationaler?
„In QualityLand lautet die Antwort auf alle Fragen »OK«“*
Natürlich braucht es nicht unbedingt die abgeschlossene Digitalisierung aller Prozesse, um jeden Rest persönlicher Entscheidungsqualität zu verhindern. Auch mit „echten“ Menschen lassen sich Prozesse in solch starre Rahmen zwängen, dass „Schema F“ die einzige Lösung ist. Wer schon mal eine Beschwerde bei der DHL loswerden wollte, weiß wie ohnmächtig man sich fühlt, wenn alle Prozesse automatisiert festgelegte Routinen durchlaufen. Es mag wenig Sinn ergeben, der Oma am Telefon zur Lösung der Beschwerde einen digitalen Gutscheincode durchzugeben – das Ticket kann jedoch als „erfolgreich bearbeitet“ geschlossen werden.
Bei Algorithmen wäre es da zumindest einfacher, zusätzliche wenn …-dann…-Schleifen einzubauen. Prof. Dr. rer. pol. Georg Herde von der TH Deggendorf beschreibt im Artikel „Auch Maschinen machen Fehler“ wie durch Data Science auffällige Transaktionen, die von der Norm abweichen, in Echtzeit erkannt werden können, aber auch welche lenkende (erkennende) Rolle der Mensch in diesem Szenario hat.
Und ein weiteres ethisches Problem stellt sich. Um genauer als jeder Mensch zu arbeiten, zielsicherer zu werden und z.B. verlässlich Bewerber vorzusortiern, werden viele und genaue Daten gebraucht. Individualisierte Daten, die vielleicht die Privatsphäre verletzten und zu viel von uns preisgeben.
Die o.g. Lemonade-Versicherungswerbung hat mich gestern nachmittag zu dem Artikel inspiriert, am selben Abend setzt sich die Zeit im Artikel „Sie entscheiden über unsere Leben“ mit der Macht der Algorithmen auseinander. Darin wird auch Bezug genommen zu den „Ethik-Leitlinien für eine vertrauenswürdige KI„, die sich im Namen einer EU-Kommission mit Fragen nach
- Kontrolle
- Sicherheit
- Datenschutz
- Nichtdiskriminierung
- Nachhaltigkeit
- Verantwortlichkeit
- Transparenz
beschäftigen und zeitnah getestet werden soll.
Blackbox der Entscheidungen
Eine weitere Studie über „Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren“ setzt sich unter anderem mit Offenlegungspflichten und deren Problemen auseinander:
„…stellt sich hier die Frage, wie dieses Recht praktisch umgesetzt werden kann, wenn Maschinelles Lernen mit großen Datensätzen zu opaken Entscheidungen führt. Dies könnte zu einer interessanten vergleichenden Analyse des Erfolgs eines „Rechts zur Erklärung“ im Verbraucherschutzrechts führen, im Unterschied zu dem … „Recht auf Analyse“…Verschiedene Lernalgorithmen produzieren durch Training verschiedenartige Voraussagemodelle, diejeweils durch entsprechende Methoden mehr oder weniger für den Menschen verständlich nachvollzogen werden können.“
Die Frage nach der Verantwortung
Neben der Tranzparenz scheint die Verantwortlichkeit ein weiterer Punkt zu sein, der viel Fragen nach sich zieht. Muss das Haftungsrecht und Schadensersatzrecht weiter entwickelt werden, um neue Rechtsfragen abzubilden? Haftet bei bei einem Unfall mit Beteiligung selbstfahrender Autos der Halter oder der Hersteller ? Genügt die Haftung für Produktionsmängel wenn sich die Software selbständig durch Lernen verändert?
Bisher gibt es nur wenig Rechtssprechungen, die sich mit dieser Thematik befassen. Durch die wachsende Anwendung selbststeuernder Technik im Bereich der Pflege, der Medizin, auf der Straße, bei der Vorauswahl von Bewerbern u.v.m. ergeben sich in den nächsten Jahren sicherlich viele Anwendungsfälle.
Aber für alle, die jetzt schon die Allmacht der Algorithmen fürchten oder diese umgehen, indem sie bei Onlinebestellungen einkommensstarke Wohnorte verschleieren und Flüge nie mit MacBook buchen, hier ein tröstliches Schlußzitat aus Twitter. In einem Twitter Posting vom 6. Juli 2018 berichtete @KathasStrophen: „Facebook schlägt mir einen „Ist ihr Kind hochbegabt?“-Artikel vor. Zeitgleich semmelt der 10-jährige vor die Terassentür des Ferienhauses, weil er denkt, sie sei offen. Macht euch keine Sorgen, um eure Privatsphäre bei Facebook – überhaupt nix wissen die!„
* Zitate aus Qualityland (s.u.)
Quellen und Hintergrundlinks:
- Marc-Uwe Kling: QualityLand (dunkle Edition). Ullstein, Berlin 2017, ISBN 3550050151 ist als Hörbuch genial aber auch manchmal erschreckend, insbesondere wenn sich dystropische Szenarien so schnell im wahren Leben wiederfinden (Bspw. als Sozialpunkte in China). Nach neuen Meldungen plant der US-Sender HBO die Verfilmung als TV-Serie.
- Werbeclip der Lemonade Insurance N.V. https://www.lemonade.com/de
- „Auch Maschinen machen Fehler“ Künstliche Intelligenz ist nicht der Weisheit letzter Schluss, meint Prof. Dr. rer. pol. Georg Herde von der TH Deggendorf. https://www.mittelbayerische.de/wirtschaft-nachrichten/auch-maschinen-machen-fehler-21840-art1787949.html und hier als Teil einer Gesamtpublikation mir einigen Artikeln zum Thema www.die-wirtschaftszeitung.de/epaper (August 2019)
- AlgorithmWatch ist eine gemeinnützige Organisation die Beispiele für den Einsatz von KI-Systemen zur Entscheidungsfindung sammelt und erläutert https://algorithmwatch.org
- Wirtschaftswoche „Wer haftet, wenn künstliche Intelligenz Fehler macht?“ (Juni 2018) https://www.wiwo.de/technologie/forschung/recht-wer-haftet-wenn-kuenstliche-intelligenz-fehler-macht/22719488.html
- Artikel in der Zeit: „Sie entscheiden über unsere Leben„; https://www.zeit.de/wirtschaft/2019-07/algorithmus-facebook-google-datensicherheit
- „Ethik-Leitlinien für eine vertrauenswürdige KI“ – bei der mich der Untertitel: „Hochrangige Expertengruppe für künstliche Intelligenz“ ziemlich irritiert. Scheint aber ernst gemeint zu sein? Auf der letzten Seite finden sich bei der Expertenaufzählung einige Beteiligte aus internationalen Universitäten und viele Vertreter aus der Wirtschaft.
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Kritische Stimmen zu der Veröffentlichung bemängeln eine zu geringe Verbindlichkeit der einzelnen Punkte - Für fast 200 Seiten erstaunlich gut lesbar: „Gesellschaft für Informatik (2018). Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren. Studien und Gutachten im Auftrag des Sachverständigenrats für Verbraucherfragen: http://www.svr-verbraucherfragen.de/wp-content/uploads/GI_Studie_Algorithmenregulierung.pdf
- Twitternachricht von Katha schreibt @KathasStrophen https://twitter.com/KathasStrophen/status/1015275926463098880
0 Kommentare