Über die bösen Algorithmen
KI / AI

Über die bösen Algorithmen

Der freie Wille des Menschen ist seit langer Zeit ein schönes Diskussionsthema. Auch wenn es den Begriff schon viel länger als etwa den Begriff „KI“ gibt, ist er wie diese immer noch nicht eindeutig definiert. Viele Wissenschaften wie Philosophie, Psychologie, Physik, Neurologie und andere setzen sich mit der Frage auseinander, ob denn der Mensch einen freien Willen hat. Jedoch so richtig einig ist man sich noch nicht.

Trotzdem setzt unsere gesamte Rechtsprechung voraus, etwa bei der Definition des Schuldprinzips, dass der Mensch sich als geistig-sittliches Wesen in freier Selbstbestimmung zu seinem Handeln entscheiden kann. Liest man aktuelle Berichte über unsere Lieblingsdatenmonopolisten wie Google, Amazon oder Facebook oder über neuere KI-Anwendungen bis hin zum autonomen Autofahren, dann droht dem Menschen der freie Wille abhanden zu kommen. Denn immer mehr entscheiden wir ja gar nicht mehr selbst, verstehen die Grundlagen unsere Entscheidungen nicht mehr, sondern irgendwelche Algorithmen entscheiden für uns. Beim Online Shopping hält Amazon für jeden seiner Kunden ein anderes Einkaufserlebnis bereit. Denn die Suchalgorithmen kennen deren Geschmack oder glauben, ihn zu kennen und schlagen ihnen nur Dinge zum Kauf vor, die zu ihrem jeweiligen früheren Einkaufsverhalten passen.

Google findet nur, was Werbegeld bringt oder zu meiner Informationsblase gehört. Und wenn dann erst der Algorithmus entscheidet, ob ich kreditwürdig bin oder ob mein Auto in einer unvermeidbaren Unfallsituation lieber vor einen Baum fährt und mein Leben gefährdet, anstatt in eine Gruppe Kinder zu fahren, entsteht spätestens dann der Eindruck, dass Algorithmen die Macht übernehmen und unser freier Wille in die Cloud abwandert. Es kommt damit ein Unterton in die Berichterstattung, wie man ihn von vielen Verschwörungstheorien kennt und der Algorithmus scheint ein eigenes Wollen zu entwickeln und „böse“ zu werden.

Algorithmen sind Handlungsvorschriften, die die Lösung eines komplexeren Problems in Teilschritte zerlegen und jedem ein klares Programm liefern, diese Probleme zu lösen. Spätestens seit Einführung in die Dreisatzrechnung haben wir uns alle mit Algorithmen beschäftigt und ihren Nutzen schätzen gelernt. Algorithmen sind in gewissem Sinne Kochrezepte. Allerdings unterscheiden wir bei Kochrezepten in der Beurteilung nicht so richtig zwischen der eigentlichen Handlungsanweisung, ein Gericht zuzubereiten, und dem Gericht selbst. So kann die Handlungsanweisung zur Zubereitung von Rahmspinat ganz toll sein, aber ich werde das Ergebnis nie mögen. Oder IKEA Möbel – sie sind oft ganz praktisch, aber die Aufbauanleitung…?!

Algorithmen können also sicher gut oder schlecht sein, aber böse? Natürlich kann ein Mensch auch Algorithmen nutzen, um einen bösen Zweck zu verfolgen – wie Rahmspinat für mich kochen – aber der Algorithmus selbst? Und wir sind es doch schon lange gewohnt, dass Algorithmen für uns entscheiden. Denn über die Auslösung der Airbags oder der Notfallbremsung entscheidet schon lang ein Algorithmus für uns, weil der es eben schneller und besser kann als wir. Und bis auf wenige Hardcore-Sportwagenfahrer verlassen wir uns darauf und würden nicht auf die Idee kommen, das ESP in unserem Auto abzustellen, oder?!

Nun werden aber Algorithmen zunehmend auch in Entscheidungssituationen eingesetzt, in denen es nicht mehr um den Ersatz physischer Reaktionen geht, wo der Computer eben oft einfach schneller ist als der Mensch, sondern auch in der Bewertung von Menschen und ihren Fähigkeiten. So werden mindestens bei der Erstbewertung von Stellenbewerbern oft schon Algorithmen eingesetzt. Auch die Kreditwürdigkeit von Menschen wird nicht mehr vom menschlichen Finanzberater eingeschätzt, sondern von Algorithmen. Kann das richtig sein, dass so unser berufliches oder wirtschaftliches Schicksal von Algorithmen abhängt und wir nicht mehr als Mensch von Menschen beurteilt werden, die uns vielleicht doch ganzheitlicher sehen können?

Neben diesem Unwohlsein, nicht nur die Entscheidung, welches Buch wir lesen oder welchen Film oder welche Werbung wir schauen, einem Computer zu überlassen, sondern besonders die für den weiteren Verlauf unseres Lebens wesentlichen Wegweisungen, kommt oft noch hinzu, dass diese Algorithmen, die sich vielfach selbstlernend aus der Analyse von realen Daten entwickeln, nicht immer politisch korrekt entscheiden. Da könnte bei der Einstufung in die Krankenversicherung plötzlich der Raucher bessere Tarife bekommen als der Nichtraucher oder der Mann bessere als die Frau. Auch bei anderen Entscheidungen würden vielleicht Faktoren in die Entscheidungen einfließen, die wir aus berechtigten Gründen gesellschaftlich nicht zulassen wollen.

Es stellt sich die Frage, ob wir Entscheidungen überhaupt noch zulassen, die auf menschlichem Bauchgefühl und Erfahrungswissen getroffen wurden und nicht irgendwie objektivierbare und quasi-algorithmische Rechtfertigungen für unsere Entscheidungen verlangen. Lehrer wissen heute, dass sie besser ausreichend hart dokumentierte Fakten bereithalten, wenn sie etwa eine Versetzung ablehnen wollen, denn die Bereitschaft der Eltern zu juristischen Interventionen ist groß. Der Lehrer sollte besser algorithmisch begründen können, warum der eine Schüler noch versetzt wurde und der andere nicht. Gleiches gilt bei der Reaktion auf Stellenbewerber, Mieter, Kreditnehmer oder auch bei Beförderungen. Wir wollen zwar nicht, dass ein Algorithmus über uns entscheidet, aber der Mensch, der über uns entscheidet, muss hinterher mindestens so tun können als hätte er vollkommen objektiv, nur an Fakten orientiert und nicht durch Vorurteile beeinflusst – also quasi algorithmisch – geurteilt.

In vielen betriebswirtschaftlichen Vorgängen wird dieser Drang zum pseudo-algorithmischen Vorgehen auf die Spitze getrieben. Mein absoluter Liebling ist der Einkauf (bei anderen Business Cases beobachtet man Ähnliches, aber nirgendwo so offensichtlich) etwa von einem IT-Dienstleister für ein großes Projekt. Als CIO weiß ich in der Regel, wer das kann, wer die richtigen Leute hat, wer das Problem und die Technologie versteht sowie die nötige Qualität und Verlässlichkeit liefert etc.  Aber Compliance hat mich im Verdacht, mit alten Kumpels zu arbeiten, wenn nicht gar bestechlich zu sein. Der Einkauf hält mich für unfähig, eine preiswerte Lösung zu finden. Das Management findet sowieso alles zu teuer usw. Deshalb denke ich mir tolle, objektive Bewertungskriterien aus, die ich mit einem Gewicht versehe und so eine für alle Seiten absolut unangreifbare, praktisch algorithmische Entscheidung für die Lieferantenauswahl treffe. Als CIO muss ich das, wie die Mathematiker sagen, inverse Problem lösen: Welche Bewertungskriterien muss ich mit welchen Gewichtungen vor der Lieferantenauswahl festlegen, damit hinterher sicher der Kandidat herauskommt, den ich vorher schon haben wollte?

Sollen wir nun Algorithmen, von Big Data und unserer selbstlernenden KI entwickelt, das Entscheiden überlassen oder dem Bauchgefühl und der Erfahrung des Menschen vertrauen? Auf jeden Fall müssen wir dem Algorithmus unsere Werte und unser Wollen mitgeben und wir müssen seine Ergebnisse immer wieder einer Bewertung und Kontrolle unterziehen. Aber vielfach sind sie einfach viel effizienter und effektiver als der Mensch. Andererseits plädiere ich auch dafür, die menschliche Entscheidung basierend auf Erfahrung und Bauchgefühl genauso zu akzeptieren und nicht immer eine pseudo-algorithmische Objektivität zu verlangen. Denn in manchen Situationen ist dies immer noch der bessere Weg. Aber böse sind Algorithmen nie, sondern nur der Mensch, der ihnen falsche Ziele vorgibt! Ich sage nur: Rahmspinat!

Fragen, Feedback und Kommentare zu diesem Beitrag senden Sie bitte an r.janssen@acent.de

Rainer Janßen | 22.01.2021

Ähnliche Beiträge

26.02.2021 | Prof. Dr. Christopher Rentrop

CR026 Adaptive Governance

12.02.2021 | Prof. Dr. Ayelt Komus

CR025 Scaled Agility

10
14.01.2021 | Patrick Naef

Serie: The future role of the CIO

Mehr laden
Mehr laden
Weniger anzeigen