What the f*** is AI?
KI / AI

What the f*** is AI?

Ja, Sie haben recht. Das ist kein seriöser Titel für einen Blog-Beitrag, aber das Thema KI oder englisch ‚AI‘ geht mir schon seit meinen Anfängen in der IT-Industrie so ‘was von auf den Senkel, dass es mir wirklich schwerfällt, sachlich zu bleiben. Warum ist das so?

Als ich vor gut 35 Jahren nach meiner Promotion an das Wissenschaftliche Zentrum der IBM in Heidelberg wechselte, begannen dort gerade auch eine ganze Reihe von Projekten über natürlichsprachliche Schnittstellen zu relationalen Datenbanken, Expertensystemen für Verkehrsrecht, Spracherkennung, maschineller Übersetzung, neuronalen Netzen und allem anderen, was damals gerade HYPE war. Und natürlich war auch damals schon alles KI.

Auf einer Tagung habe ich dann einen der damaligen KI-Päpste in der deutschen Szene um eine Definition des Begriffes KI gebeten. Seine Antwort: Ein System hat KI, wenn es eine Aufgabe löst, zu der ein Mensch Intelligenz benötigt. So richtig hat mir das damals nicht geholfen, denn die beste Definition für menschliche Intelligenz war zu der Zeit: Das ist das, was der Intelligenztest misst. Man hatte also nur einen nicht-definierten Begriff durch einen anderen nicht-definierten Begriff ersetzt. Diese Methode setzte man auch in der Psychoanalyse und der Anthroposophie gerne ein. Karl Popper würde deshalb wohl heute weite Teile der jetzigen KI-Szene eher als Pseudowissenschaft bezeichnen. Aber ich wusste damals wenigstens, dass mein Taschenrechner KI hat.

Nun kann ich auch als Mathematiker verstehen, dass man bei neuen Themen eine Zeit braucht, bis man die richtige Definition gefunden hat. In dem Buch von Imre Lakatos „Beweise und Widerlegungen“ findet man eine schöne Geschichte über den Beweis des Eulerschen Polyedersatzes E-K+F=2 (Ecken minus Kanten plus Flächen gleich Zwei, bitte mal für einen Würfel nachrechnen). Da haben sich Gruppen deutscher und französischer Mathematiker heftig bekriegt, weil die einen meinten, einen Beweis gefunden zu haben, die anderen dann ein Gegenbeispiel zu dem Beweis präsentierten, das die ersten wiederum als Monster und nicht als ordentliches Polyeder empfanden usw. Der Disput löste sich erst, als man die richtige Definition gefunden hatte.

Schlimm finde ich nur, dass die IT-Szene sich in den folgenden Jahrzehnten nie wirklich um Klärung der Begrifflichkeit bemüht hat. Es wird weiterhin über KI geredet, ohne zu sagen, was man denn nun meint. Dabei geht es bei neuronalen Netzen doch meist nur um adaptive Schätzer, autonomes Fahren meint Mustererkennung sowie Steuerung und Kontrolle dynamischer Systeme, bei Sprachverarbeitung geht es oft auch nur um Signalverarbeitung und Statistik, und selbstlernende Programme sind etwa in der Numerik und Statistik schon lange bekannt. Da bleibt dann allerdings wenig Geheimnisvolles übrig und weder die Führung von Staaten und Unternehmen noch die Bürger und Mitarbeiter werden verunsichert und zu irrationalem Verhalten veranlasst. Aber die KI-Päpste wussten wie schon die richtigen Päpste sehr genau, dass man nur bedeutungsschwanger vom wabernden Weltwissen reden und die richtigen Bilder von Himmel und Hölle erzeugen muss, um das Geld für die Klöster und Tempel – in der KI Forschungsinstitute und Projektmittel – zu bekommen.

Über die Jahre hat sich in der IT die Neigung, die Welt mit schwammigen, nicht definierten Begriffen zu überschwemmen, noch verstärkt. Dauernd versucht man so den Eindruck zu erwecken, dass da ganz grundlegend Neues entsteht, dass die Welt sich fundamental und disruptiv verändern wird und unbedingte Aufmerksamkeit von den Unternehmenslenkern erfordert – und vor allen Dingen viel Geld für Technologiekäufe und Beraterverträge. Lassen Sie mich das an zwei Beispielen erläutern:

  1. Business Intelligence: Klingt auf jeden Fall bedeutend und im Englischen vielleicht sogar ein bisschen bedrohlich, denn Intelligence steht da auch für den Geheimdienst. Angesichts des überschaubaren Wissens vieler Geschäftsbereiche über neue Technologien oder wissenschaftliche Analyseverfahren habe ich den Begriff manchmal eher als Oxymoron empfunden. In der Praxis ging es jedoch nur darum, die vielen gesammelten Daten endlich einmal mit soliden statistischen Verfahren anzusehen, ob man denn nicht Rückschlüsse etwa auf Verhalten und Wünsche der Kunden ableiten könnte. Daraus entstanden dann u.a. die ach so geheimnisumwobenen „Algorithmen“ von Amazon, Facebook oder Google. Neuerdings macht man nun Big Data, denn man – welche Überraschung – kann noch mehr Daten analysieren und dank methodischer Fortschritte in der Sprachverarbeitung auch unstrukturierte Daten analysieren. Wissenschaftlich gesehen auch nicht gerade Nobelpreis-verdächtig.
  2. Cloud Computing: Im Jahre 1995 habe ich in der IBM Deutschland die ersten Foliensätze über Network Computing mitproduziert. IBM hatte Client/Server komplett verschlafen und war daran 1992 fast pleite gegangen. Nach Lösung der ökonomischen Kernprobleme brauchte man nun eine neue Story. Client/Server wurde für tot erklärt und der große Paradigmenwechsel zu Network Computing eingeläutet. Es hat natürlich nicht gleich wirklich funktioniert. Deshalb hat man mehrfach den Namen geändert: Application Service Provisioning, Business-On-Demand und irgendwann dann Cloud. Und siehe da: Nach 25 Jahren funktioniert es auch so langsam.

Es wäre schön, wenn wir alle etwas mehr Disziplin und Sachlichkeit in die Diskussion bringen und solche leeren Worthülsen vermeiden würden. Lasst uns doch lieber über das reden, was wirklich passiert. Mit Worten, die eine klare Bedeutung haben.

Und zum Schluss verrate ich Ihnen noch ein Geheimnis. Das muss aber unter uns bleiben! Die einzige Definition, um die die Szene immer wieder mit Intensität und Begeisterung gerungen hat, ist die der Rolle des CIO. Je nach aktueller Technologiedebatte war es ein Chief Process, Data, Digitalisation, IoT, etc. Officer. Die einzige Konstanz über all die Jahre war dabei: Jetzt, mit dieser neuen, bahnbrechenden, disruptiven Technologie, ist IT so wichtig, dass der CIO in den Vorstand muss. Vielleicht sollten wir unsere Energie lieber darauf verwenden, unsere Sprache zu verbessern und mit dem Anwender in klaren und verständlichen Worten über das zu sprechen, was gerade passiert, statt ihm mit immer neuen Nebelwolken den Blick auf seine Zukunft zu versperren. Dann klappt es ja vielleicht auch mal mit dem Vorstand!

Quelle: Imre Lakatos, herausgegeben durch John Worrall und Elie Zahar: Beweise und Widerlegungen: Die Logik mathematischer Entdeckungen (= Wissenschaftstheorie Wissenschaft und Philosophie. Nr. 14). Vieweg Verlag, Braunschweig 1979, ISBN 3-528-08392-1

Fragen, Feedback und Kommentare zu diesem Beitrag senden Sie bitte an r.janssen@acent.de

Rainer Janßen | 27.02.2020

Ähnliche Beiträge

18.11.2024 | Timon Thöne

Next Gen Virtualisierung

15.10.2024 | Dr. Peter-Christian Zinn

So schafft Datenanalyse Mehrwert

Mehr laden
Mehr laden
Weniger anzeigen