Eine ganz kurze Geschichte der Künstlichen Intelligenz
Wenn es ein Schlagwort gibt, das in unseren Tagen schier omnipräsent ist, dann wohl „Künstliche Intelligenz“: Überall trägt es zu unserem Lebensstil bei und man fragt sich, wie die Menschen allein mit natürlicher Intelligenz überleben konnten. Ein kurzer Blick in die Geschichte der KI offenbart das Geheimnis: Der Mensch denkt, er rechnet nicht nur. Und das ist eben ein Unterschied.
Denkens als Rechnen
Die Geschichte der künstlichen Intelligenz beginnt vor 2500 Jahren. Damals dachte man noch nicht an Maschinen, die wie Menschen denken, doch einige hatten bereits die Idee, dass es möglich (und – zumindest manchmal – gut) sei, das Denken durch Rechnen zu ersetzen. Sokrates etwa. Er fragte Euthyphron nach einem „Katalog von Regeln, der uns in jedem Augenblick genau sagt, wie wir uns zu verhalten haben“. Sokrates will klares Regelfolgen ohne Mehrdeutigkeiten. Er will das, was wir heute einen Algorithmus nennen.
Die Berechenbarkeit der Welt ist dann ein zentrales Topos der Frühaufklärung. Gottfried Wilhelm Leibniz und Christian Wolff versuchen, alle Fragen – philosophische wie praktische – auf Mathematik zurückzuführen. Bereits Descartes hatte die Idee einer mathesis universalis, mit der sich alles lückenlos und widerspruchsfrei erklären, ja: berechnen, lässt. So z.B. auch die Sprache, die so oft zu Missverständnissen führt, im Privaten wie im Gesellschaftlichen. Sogar Kriege können durch dumme Bemerkungen ausgelöst werden. Alles eine Frage der Mathematik bzw. des Algorithmus von künstlicher Intelligenz, der die natürliche Dummheit ablösen soll.
Leibniz, der u.a. auch Mathematiker war, dachte daran, die Sprache – als situativ zu deutendes System von Wörtern und Wendungen – durch ein System von logisch verknüpften Zeichen zu ersetzen, das jede und jeder verstehen kann und auch in eindeutiger Weise versteht – Missverständnisse ausgeschlossen. „Characteristica universalis“ nannte er sein Projekt. Fragen der internationalen Diplomatie und andere Rechtsprobleme und Meinungsverschiedenheiten sollten nicht mehr besprochen, sondern berechnet werden: Die „angemessenen Charaktere oder Zeichen“, so der Gelehrte, „drücken alle unsere Gedanken aus“. Mit diesem Projekt scheiterte Leibniz (immerhin fand er im Zuge seines Versuchs, alles auf einfachste Formen herunterzubrechen, den Binärcode – Grundlage der Digitaltechnik –, aber das ist eine andere Geschichte). Sprache funktioniert so nicht. Gleichwohl: Die Idee mit der allgemein verständlichen Universalsprache auf Zeichenbasis wurde seitdem immer mal wieder aufgegriffen. Zum Beispiel Anfang des 20. Jahrhunderts vom Berliner Architekten Tiemer, der im Rückgriff auf universal verwendete Zeichen, nämlich Zahlen, sein „Timerio“ entwickeltet.
Was schon mit der Sprache nicht funktioniert, klappt mit dem Menschen als ganzes erst recht nicht. Wissen wir heute. Damals, im 18. Jahrhundert, stürzen sich die Enzyklopädisten in einem unfassbaren Fortschrittsoptimismus auf die mechanistische Modellierung des Menschen. Wir kennen das Bild vom Gehirn als ein Uhrwerk, in dem zwar feinste Rädchen drehen, aber eben in deterministischer Weise. Für Phantasie ist da kein Platz. Auf die Spitze treibt es Julien Offray de La Mettrie, der mit „L’Homme-Machine“ (1748 anonym erschienen) die Verschränkung von Humanem und Technischem postuliert und den Menschen als eine sich selbst steuernde biologische Maschine beschreibt. Der Berliner Philosoph Holm Tetens sah La Mettries Schrift als Vorstoß, der „reichlich zu früh“ gekommen sei, heute aber „scheinen es die Wissenschaften selbst zu sein, die La Mettries Gleichung zum Thema machen“.
Trotz dieser Früchte natürlicher Intelligenz des Menschen, scheiterte auch dieser Ansatz an der Lebenswirklichkeit. Natürliche Sprachen sind eben doch – natürlicher. Verständnisschwierigkeiten, Denkfehler und Missverständnisse eingeschlossen. Denken ist mehr als Logik, es umfasst auch Intuition und Gefühl. Den KI-Forschern ist das klar. Marvin Minsky (Begründer des Begriffs „Künstliche Intelligenz“) meinte, es werde bald möglich sein, „Emotionen in eine Maschine hinein zu programmieren“. Minsky erklärte 1970, dass es in drei bis acht Jahren Maschinen mit der durchschnittlichen Intelligenz eines Menschen geben werde, die Shakespeare lesen und Autos warten würden. Fünfzig Jahre später liest kein einziger Rechner „Romeo und Julia“ - warum auch?
Denken ist mehr als Rechnen
Die Kernfrage lautet: Denken – lässt sich das auf Rechnen reduzieren? Anders gefragt: Was fehlt der Maschine? Woran scheitert die KI? Kurz: An der Komplexität des menschlichen Gehirns. Geist kann nicht so einfach mit Strom identifiziert werden, Denken ist mehr als Rechnen. Maschinen können kognitive und emotionale Akte des Menschen nicht simulieren und ersetzen. Einer der Väter des IT-Zeitalters, Alan Turing, hat sich dafür einen Test ausgedacht, das „Imitation-Game“. 1950 erschien in der englischen Philosophiezeitschrift „Mind“ sein Artikel „Computing Machinery and Intelligence“, in dem Turing die Testbedingungen seines Imitationsspiels darlegt. Die Maschine muss im Dialog mit einem Prüfer, am besten per Fernschreiber, mit Erfolg einen Menschen vortäuschen. Dann müsse man ihr, so Turing, das Humanum schlechthin zubilligen: denken zu können. Bisher ist der Turing-Test immer gescheitert.
Bisher – die Entwicklung geht weiter.
Das Ziel von KI ist, das Denken des Menschen äquivalent auf das Rechnen einer Maschine zu übertragen bzw. dann umgekehrt: den Rechner das menschliche Gehirn simulieren zu lassen. Dazu muss man wissen, wie das funktioniert, das Gehirn, wie das geht: denken. Das ist keine kleine Frage – die Bewusstseinsphilosophie oder Philosophie des Geistes ist ein extrem kompliziertes Gebiet. Wir sind uns ja noch nicht einmal einig, was natürliche Intelligenz ist.
Dabei ist die Künstliche Intelligenz – als Konkurrenz der natürlichen Intelligenz – die „vierte Kränkung“ des Menschen.(nach Kosmologie, Evolutionstheorie und Psychoanalyse). Es bereitet uns Unbehagen, dass Maschinen nicht nur besser Schach spielen als wir, sondern möglicherweise sogar besser beraten und in komplexe Situationen die besseren Entscheidungen treffen.
Es geht die Furcht um, dass sie am Ende auch besser fühlen, besser trösten, besser lieben könnten – und dass damit die reale Gefahr besteht, dass sie uns eines Tages vollends überflüssig machen. Prominente Vertreter der KI-Forschung wie Minsky, Hans Movarec, Pionier der Robotik, und der Softwareentwickler Bill Joy sahen die Maschine schon in absehbarer Zeit über den Menschen triumphieren.
Doch heute wissen wir: So einfach ist das nicht. Das menschliche Denken geht weiter als das Rechnen des Roboters. Das Gehirn des Menschen sorgt für Phantasie, Kreativität – und notorische Devianz.
Regeln zu brechen, um Ziele zu erreichen, Anweisungen zu missachten, für den guten oder einfach nur den persönlichen Zweck, das kann nur der, der mit seiner Intelligenz nicht aufs strikte Regelfolgen angewiesen ist. So wie der programmierte Roboter. Klarer Vorteil für die natürliche Intelligenz.