Background Image

Heftarchiv – Leseproben

Screenshot

[€ 11.00]  ISBN 978-3-943297-49-2

Printausgabe bestellen

[€ 8,00]

PDF-Ausgabe kaufenPDF-Download für Abonnenten

Sie haben noch kein digitales Abo abgeschlossen?
Mit einem digitalen Abo erhalten Sie Zugriff auf das PDF-Download-Archiv aller Ausgaben von 1949 bis 1991 und von 2019 bis heute.
Digital-Abo • 45 €/Jahr
Mit einem gültigen Print-Abo:
Digital-Zusatzabo • 10 €/Jahr

Leseprobe aus Heft 5/2019

Lenzen, Manuela

Der elektronische Spiegel


Der »Nächste Rembrandt«, neue Choräle im Stil von Johann Sebastian Bach, die sechste Staffel von »Game of Thrones«, eine Geschichte über Einhörner, aus zwei vorgegebenen Sätzen gesponnen: Seit Beginn der Künstliche-Intelligenz-Forschung bedienen sich auch Künstler der mehr oder weniger klugen Systeme und schaffen mit ihrer Hilfe Gedichte, Erzählungen, Theaterstücke, Performances, Bilder und Musik. Zum Teil erzielen sie damit abenteuerliche Preise – 432 000 Euro zahlte ein anonymer Sammler im letzten Jahr für das von einem Algorithmus errechnete »Portrait von Edmond Bellamy« –, oft erfahren sie aber auch harsche Kritik: seelenlos, kalt, nervtötend, häßlich, ohne ästhetischen Wert seien diese Werke.

Wie viele solcher Urteile sich nur dem Wissen über den Entstehungsprozeß dieser Werke verdanken, bliebe zu prüfen. Interessanter als der Streit um die Qualität der Computerkunst ist etwas anderes: Wenn sie nicht so gut ist wie vom Menschen geschaffene Werke, woran liegt das? Was unterscheidet das Treiben der Rechner von »echter« Kreativität? Welche Entwürfe eines Algorithmus sind interessant, welche banal oder völlig mißlungen? Was hätte ein Mensch nie kombiniert, getrennt oder vermischt? Und warum?

Im aktuellen Hype um Chatbots und Fakenews, maschinelle Übersetzung und soziale Roboter geht verloren, daß Künstliche Intelligenz immer auch ein großes Experiment in Sachen Selbsterkenntnis war und bis heute ist: ein elektronischer Spiegel. Von Anfang an sollten die intelligenten Maschinen uns nicht nur anstrengende, gefährliche, langweilige oder ungesunde Arbeit abnehmen. Sie waren immer auch Hilfsmittel, um die menschliche Intelligenz besser zu begreifen: Nur was man nachbauen kann, hat man auch verstanden. Wenn wir heute einen viel breiteren Begriff von Intelligenz haben als in den fünfziger Jahren, dann auch, weil sich entsprechende Computermodelle immer wieder als zu einfach erwiesen haben.

»Die Forschung wird auf der Annahme basieren, daß jeder Aspekt des Lernens oder jeder andere Aspekt von Intelligenz im Prinzip so genau beschrieben werden kann, daß eine Maschine dazu gebracht werden kann, sie zu simulieren«: so präsentierten der junge Mathematiker John McCarthy und seine Kollegen 1955 ihr Vorhaben in einem Förderantrag an die Rockefeller Foundation. Mit zehn Forschern wollten sie in nur zwei Monaten »signifikante Fortschritte« darin machen, »herauszufinden, wie man Maschinen dazu bringen kann, Sprache zu verwenden, Abstraktionen und Begriffe zu bilden, Probleme zu lösen, die zu lösen bislang dem Menschen vorbehalten waren, und sich selbst zu verbessern«. Dieses Unternehmen nannten sie »Künstliche Intelligenz«.

Der Weg vom Denken zur Datenverarbeitung war damals nicht weit und der Rückweg auch nicht: Wenn Denken sich – der damals vorherrschenden Annahme gemäß – als mentales Manipulieren von Symbolen nach Regeln beschreiben läßt, müßte man es auch im Computer realisieren können. Umgekehrt galt: Wenn Datenverarbeitung ein gutes Modell für das Denken ist, besteht kein Grund mehr, das kognitive Geschehen für nebulös und die Beschäftigung damit für ein unwissenschaftliches Unterfangen zu halten. Das Computermodell des Geistes – das Gehirn ist ein Computer, der Geist sein Programm –, das uns heute hölzern erscheinen mag, war seinerzeit ein Befreiungsschlag gegen die Black Box, in die der Behaviorismus die Kognition gesperrt hatte. In Begriffen der Datenverarbeitung durfte wieder von inneren Zuständen gesprochen werden.

Viele frühe Arbeiten zur KI verstanden sich explizit auch als psychologische Theorien; die »psychischen Maschinen« sollten die Psychologie wissenschaftlich machen. Für die nach ihm benannte Maschine orientierte sich Alan Turing am menschlichen Rechnen mit Stift und Papier; die elektrischen Schaltkreise der Rechenmaschinen, dachte er, teilen eine zentrale Eigenschaft mit den Nervenzellen: sie übertragen Informationen und speichern sie. Warren McCulloch und Walter Pitts entwickelten ihre Neuronenmodelle, um zu prüfen, was das Gehirn berechnen könne, und postulierten in Analogie zur Aktivität ihrer formalen Neuronen das »Psychon« als elementare Einheit der menschlichen Kognition. Allen Newell und Herbert Simon beschrieben ihren »General Problem Solver« als »ein Programm, das menschliches Denken simuliert«.

Die Idee, man müsse nur genau hinschauen, um die menschliche Kognition nachbauen zu können, bescherte der Welt die ersten Dialogprogramme, die schon in den siebziger Jahren helfen sollten, Krankheiten zu diagnostizieren und die richtige Therapie zu finden. Sie hießen Expertensysteme, weil die Forscher Experten, etwa Mediziner, bei der Arbeit beobachteten, nach ihrem Vorgehen fragten und dieses in der Maschine nachbildeten, Schritt für Schritt. Auf der Basis dieses expliziten, »symbolisch« genannten Programmierens entstanden auch große Datenbanken, die beeindruckendste unter ihnen Cyc, kurz für Encyclopedia. Über dreißig Jahre verwandten Forscher um Douglas Lenat darauf, dem Programm eine halbe Million Begriffe einzugeben und Millionen von Sätzen, die diese Begriffe verbinden: Vögel sind Tiere, die fliegen, sie haben Federn und schlagen mit den Flügeln. Flugzeuge fliegen auch, haben aber keine Federn und schlagen nicht mit den Flügeln. Intelligent wurden diese Systeme nie. Vielleicht, weil sie nur den Teil der menschlichen Kognition nachbilden, den der Mensch sich bewußtmachen, den er ausbuchstabieren kann, das, was er selbst mit Hilfe von Erklärungen gelernt hat. Alles, was sich mehr oder weniger unbewußt abspielt, wird davon nicht erfaßt. Wie etwa erkennt man ein vertrautes Gesicht in einer Menschenmenge? Und was genau unterscheidet einen Hund von einer Katze?

Hier glänzt das Verfahren, das derzeit am meisten von sich reden macht: das »tiefe Lernen«, Deep Learning, auf der Basis Künstlicher Neuronaler Netze (KNN). Diese werden nicht im Detail programmiert, niemand muß ihnen die Welt ausbuchstabieren. Statt dessen wird eine Grundstruktur eingerichtet und in Trainingsläufen anhand vieler Daten optimiert. Dabei rüttelt sie sich ihre Feinstruktur selbst zurecht.

Als elektronischer Spiegel taugt dieses Verfahren allerdings nicht. Der aktuelle Boom der KI beruht nicht auf neuen Erkenntnissen über die menschliche Kognition, sondern auf der Einsicht, daß diese gar nicht nötig sind. Wie Flugzeuge erst flogen, als die Konstrukteure aufhörten, sie flattern zu lassen, hebt die KI ab, seit sie auf die Simulation der menschlichen Intelligenz verzichtet. Der augenfälligste Unterschied zur menschlichen Kognition ist ihr Datenhunger. Ein Kind sieht ein Bild einer Giraffe oder vielleicht zwei, danach kann es Giraffen sicher erkennen. Wie es aus so wenigen Daten so effizient lernen kann, ist eine der großen ungelösten Fragen – und die KNN tragen nicht dazu bei, sie zu beantworten, denn sie brauchen Tausende von Trainingsdaten, um sich eine ähnliche Fähigkeit zu erarbeiten. Zudem ist schwer zu durchschauen, was sie genau tun, wenn sie Zigtausende Parameter optimieren. Auch Experten verstehen nicht, warum die Gewichtungen zwischen den Rechenknoten nun genau so verteilt sind und nicht anders.

Dem Nutzen dieser Systeme tut ihre Undurchsichtigkeit keinen Abbruch, im Gegenteil: Manche von ihnen, etwa Übersetzungs- oder Spielprogramme, funktionieren um so besser, je weniger man sie mit menschlichem Wissen behelligt und je mehr Daten man ihnen statt dessen zur Verfügung stellt. AlphaZero, das aktuellste System der Alpha-Reihe aus Googles Forschungslabor DeepMind, das nur vier Stunden brauchte, um besser Schachspielen zu können als das bis dato beste Schachprogramm, lernte, anders als die Vorgängermodelle, nicht mehr anhand menschlicher Trainingspartien, sondern spielte nur gegen sich selbst.

Haben KI-Forscher also eine ganz andere Art gefunden, Intelligenz zu realisieren, eine, die nicht beim Menschen abgeschaut ist? Eher nicht. Wie die Flugzeuge hinter den Fähigkeiten der Vögel bleibt auch diese Form der KI hinter den Fähigkeiten des Menschen zurück. Die »tiefen Lerner« funktionieren nur in eng begrenzten Welten wie dem Schach- oder dem Go Spiel, bei der Bilderkennung, dem Rating von Suchergebnissen oder der Übersetzung. Sie sind extreme Spezialisten, können so gut wie nie von einer Aufgabe zu einer anderen wechseln und kombinieren lassen sie sich auch nicht. Je komplexer und uneindeutiger die Situation ist, in der ein künstliches intelligentes System sich bewähren soll, um so mehr ist das menschliche Wissen dann doch wieder gefragt. Und solche Situationen machen den Großteil unseres Alltags aus.

Wahrscheinlich muß die Forschung für flexiblere intelligente Systeme noch einmal ganz anders ansetzen und den elektronischen Spiegel wieder blank putzen. Alan Turing hatte schon 1950 visionär die Simulation des ganzen Menschen statt nur seines Denkens empfohlen: »Ebenso kann man behaupten, daß es das beste wäre, die Maschine mit den besten Sinnesorganen auszustatten, die überhaupt für Geld zu haben sind, und sie dann zu lehren, Englisch zu verstehen und zu sprechen. Dieser Prozeß könnte sich wie das normale Unterrichten eines Kindes vollziehen. Dinge würden erklärt und benannt werden usw.« Developmental Robotics heißt das Unterfangen, das diese Idee heute umzusetzen versucht. Menschen zeigen Robotern in Kindergestalt, ausgestattet mit Augen, Ohren und Tastsinn, Gegenstände und benennen sie. Wenn ein solches System in der Lage ist, seine Sensordaten mit den gelernten Wörtern zusammenzubringen, so die Überlegung, wird es vielleicht auch einmal verstehen, was mit diesen Wörtern gemeint ist, statt sie nur statistisch zu sortieren und nachzuplappern. Die Vertreter der Developmental Robotics haben alle philosophischen Überlegungen und einige neurophysiologischen Erkenntnisse über die Bedeutung des Körpers, der Umwelt und der Mitmenschen für das Denken auf ihrer Seite. Allerdings befindet sich dieses Unternehmen in einem frühen Forschungsstadium und krankt an immer wieder versiegenden Fördergeldern.

Vielleicht setzt es in der evolutionären Hierarchie auch zu weit oben an. In bescheideneren Projekten erforschen kopflose Roboter erst einmal ihre Möglichkeiten, sich zu bewegen und ihre Gliedmaßen zu koordinieren, bevor sie mit Höherem, etwa der Entdeckung der Umwelt oder der Handlungsplanung beginnen. Dabei lernen die Forscher viel über Selbstorganisation, die Bedeutung der Körperarchitektur und darüber, wie komplexes Verhalten ohne eine zentrale Steuerinstanz möglich ist.

Mit einem guten Experiment trickst man die eigenen Voreingenommenheiten aus, mit den mehr oder weniger intelligenten Maschinen auch die Voreingenommenheiten über die menschliche Intelligenz. Am Ende könnte es sein, daß eine Künstliche Intelligenz, die diesen Namen verdient, deren Ergebnisse nicht mehr seelenlos, kalt, nervtötend und häßlich sind, nicht nur einen Körper, sondern auch eine Evolutionsgeschichte und eine Kindheit benötigt.

Ob wir dann besser verstehen, was vor sich geht, wenn eine solche Maschine einmal überzeugende Geschichten, Gedichte, Musikstücke oder Bilder verfertigt, oder ob wir nur einen Prozeß anstoßen, dessen Ergebnis uns so wenig durchschaubar ist wie die menschliche Kreativität, ist allerdings eine offene Frage. Unser elektronisches Spiegelbild könnte uns so rätselhaft bleiben, wie Spiegelbilder es von jeher gewesen sind.

 

Sinn und Form 5/2019, S. 703-706