Gottfried Wilhelm Leibniz : Der erste Informatiker
- -Aktualisiert am
Deutscher Universalgelehrter: Gottfried Wilhelm Leibniz (1646 bis 1716) Bild: ddp/Bearbeitung F.A.Z.
Wie der deutsche Universalgelehrte einst den Computer erdachte. Und was daraus bis heute folgt. Ein Gastbeitrag.
Mancher, der den Namen Gottfried Wilhelm Leibniz hört, mag an einen herausragenden Juristen, Historiker, Philosophen und Diplomaten denken. Viele kennen ihn zudem als an einen der bedeutendsten Mathematiker aller Zeiten. Tatsächlich hat dieses Universalgenie, dessen Geburtstag sich in diesem Jahr zum 375. Mal jährt, noch mehr vollbracht: Er legte praktische und theoretische Grundlagen aller modernen Rechner.
Doch der Reihe nach: Die Konstruktion von Automaten begann bereits in der Antike. Das Antikythera-Getriebe (eine Art astronomischer Rechenmaschine) entstand vor mehr als 2000 Jahren. Die wohl erste programmierbare Maschine der Welt (das automatische Puppentheater des Heron von Alexandria) stammt aus dem 1. Jahrhundert. Ihre Energiequelle war ein fallendes Gewicht, das eine um die Stifte eines drehbaren Zylinders gewickelte Schnur zog. Komplexe Befehlssequenzen, die mehrere Minuten lang Türen und Puppen steuerten, wurden durch komplexe Umwicklungen kodiert.
Binäre Arithmetik
Doch viele Aspekte der modernen Informatik lassen sich tatsächlich auf Leibniz zurückführen. Im Jahr 1673 erdachte er mit dem sogenannten Schrittzähler die erste Maschine, die alle vier Grundrechenarten ausführen konnte. Dieser wies hinaus über Wilhelm Schickards zahnradbasierte Rechenmaschine aus dem Jahr 1623 und Blaise Pascals überlegene Pascaline aus dem Jahr 1642. Das ist bedeutender, als es auf den ersten Blick vielleicht erscheinen mag, denn: Wer die Grundrechenarten beherrscht, vermag jede beliebige numerische Berechnung auszuführen – der österreichische Mathematiker Kurt Gödel kodierte ein Vierteljahrtausend später mithilfe der Grundrechenarten sogar beliebige formale Systeme und Rechenprozesse.
Interview mit Jürgen Schmidhuber: Alle 30 Jahre werden KIs eine Million mal größer“
Der Schrittzähler war darüber hinaus der erste Rechner mit internem Speicher. Das sogenannte Leibniz-Rad speicherte den Multiplikanden einer Multiplikation. Es zählte während der Rechnung mit, wie viele Additionen zur Ausführung einer gegebenen Multiplikation bereits ausgeführt wurden. Solche internen Variablen sind heute natürlich unabdingbar in der Informatik.
Inspiriert vom antiken binären chinesischen I Ching dokumentierte Leibniz auch die binäre Arithmetik, die in praktisch allen modernen Rechenmaschinen Anwendung findet. Ein Rechner, der nur mit 0 und 1 als Elementarsymbolen arbeitet, ist leichter zu bauen als ein Dezimalrechner, der alle Ziffern von 0 bis 9 verwendet. Es sollte jedoch erwähnt werden, dass Zahlendarstellungen im Dualsystem an sich sehr viel älter sind und bis ins alte Ägypten zurückreichen. Der algorithmische Aspekt des dualen Rechnens ist indes relativ jung.
Im Jahr 1679 beschrieb Leibniz tatsächlich die Grundprinzipien binärer Computer. Er stellte binäre Zahlen mithilfe von Murmeln dar, die durch Lochkarten gesteuert wurden. Dabei legte er wesentlich das Funktionsprinzip elektronischer Rechner dar, in denen die Schwerkraft und die Bewegung der Murmeln allerdings durch elektrische Schaltungen ersetzt werden.
Universelle Sprache
All dies umfasst noch nicht seine gesamte Leistung als Vordenker der Informatik. Im Jahr 1686 schuf Leibniz seine formale Algebra des Denkens, welche aus deduktiver Sicht äquivalent ist zur viel späteren sogenannten Booleschen Algebra aus dem Jahr 1847. Dabei werden die Wahrheitswerte 0 und 1 durch Elementaroperationen wie „und“ oder „oder“ zu bisweilen sehr komplexen Ausdrücken verknüpft. Dies legte wiederum den Grundstein für die erste formale Sprache (1879) von Gottlob Frege und damit letztlich auch für die theoretische Informatik. Bertrand Russell schrieb, dass Leibniz das Gebiet der formalen Logik „in einer Weise vorantrieb, wie sie seit Aristoteles nicht mehr gesehen ward“.
Doch was trieb Leibniz eigentlich an? Zeit seines Lebens verfolgte er das ehrgeizige Projekt, alle möglichen Fragen durch Berechnungen zu klären. Inspiriert durch den Gelehrten Ramon Llull aus dem 13. Jahrhundert, entwickelte er höchst einflussreiche Ideen zu einer universellen Sprache und einem allgemeinen Kalkül für Schlussfolgerungen (Characteristica Universalis & Calculus Ratiocinator). Der KI-Pionier Norbert Wiener meinte einst: „In der Tat ist die allgemeine Idee einer Rechenmaschine nichts anderes als eine Mechanisierung des Leibniz’schen Kalküls Ratiocinator.“
Der Leibniz-Ausspruch „Calculemus!“ ist wiederum prägendes Zitat der Aufklärung: „Käme es zwischen Philosophen zur Kontroverse, so bräuchten sie nicht mehr zu streiten als Buchhalter. Sie müssten sich nur mit ihren Bleistiften und Schiefertafeln hinsetzen und zueinander sagen: Lasst uns rechnen!“ Da war also plötzlich einer, der die ganze Welt auf das Berechenbare reduzieren wollte. Heute gibt es viele von dieser Sorte, doch damals war das revolutionär.
Als ob seine Errungenschaften in der Informatik nicht ausreichten, um das Vermächtnis des Gottfried Wilhelm Leibniz als das eines der größten Wissenschaftler überhaupt zu zementieren, war er noch dazu der Erste, der die Integralrechnung veröffentlichte – im Jahr 1684. Damit erweiterte er sowohl die Pionierarbeiten des Archimedes, der vor mehr als zwei Jahrtausenden die Infinitesimalrechnung einführte und schon Spezialfälle der Integralrechnung kannte, zum Beispiel für Kugeln und Parabelsegmente, als auch jüngere Durchbrüche der Integralrechnung, etwa durch Madhava von Sangamagrama und Kollegen im Indien des 14. Jahrhunderts. Dass Leibniz nicht nur zur Mathematik, Wahrscheinlichkeitstheorie und Technik sehr viel beitrug, sondern auch zur Linguistik, Biologie, Medizin, Geologie, Psychologie, Politik, Ethik, Theologie, Geschichte, Philologie und Philosophie, sei nur am Rande erwähnt.
Gödels Leistung
Wie hat sich die Theorie des Rechnens nach Leibniz’ Tod im Jahr 1716 nun weiterentwickelt? Über zwei Jahrhunderte später erweiterte Kurt Gödel Freges bereits erwähnte, von Leibniz inspirierte formale Sprache und führte schließlich die erste wirklich universelle Sprache zur Kodierung beliebiger formalisierbarer Prozesse ein (1931–34). Mit ihr zeigte er, dass es fundamentale Beschränkungen dessen gibt, was entscheidbar oder berechenbar ist. Damit versetzte er dem Leibniz’schen Projekt der universellen Problemlöser einen Schlag.
Gödels bahnbrechende Arbeit aus dem Jahr 1931 legte die Grundlagen der modernen theoretischen Informatik und der Theorie der Künstlichen Intelligenz, insofern sie die Grenzen des Theorembeweisens, des Rechnens, der Logik und der Mathematik selbst aufzeigte. Gödel konstruierte formale Aussagen, die über die Berechnung anderer formaler Aussagen sprechen – insbesondere selbstreferentielle unentscheidbare Aussagen, die implizieren, dass ihr Wahrheitsgehalt nicht ermittelt werden kann durch einen Theorembeweiser, der systematisch alle möglichen Theoreme aus einer aufzählbaren Menge von Axiomen herleitet. Dies hatte enormen Einfluss auf die Wissenschaft und Philosophie des 20. Jahrhunderts. Einige missverstanden gar sein Ergebnis und dachten, er hätte gezeigt, dass der Mensch der KI überlegen sei.
Pionier Konrad Zuse
Und wie hat sich die praktische Hardware nach Leibniz weiterentwickelt? Die ersten kommerziellen programmgesteuerten Maschinen (lochkartenbasierte Webstühle) entstanden in Frankreich um das Jahr 1800 durch Joseph-Marie Jacquard und andere – vielleicht die ersten „modernen“ Programmierer, die sozusagen industrielle Software schrieben. Sie inspirierten Ada Lovelace und ihren Mentor Charles Babbage. Er plante vergeblich, einen programmierbaren Universalrechner zu bauen.
Im Jahr 1941 jedoch konstruierte Konrad Zuse die Z3, den ersten praktischen, funktionierenden, programmierbaren Allzweckrechner, basierend auf seiner Patentanmeldung aus dem Jahr 1936. Im Gegensatz zu Babbage verwendete Zuse das Leibniz’sche Binärrechnerprinzip anstelle der traditionellen dezimalen Arithmetik. Wie bereits erwähnt, vereinfachte dies die Hardware sehr.
Im Jahr 2021 feiern wir also nicht nur Leibniz’ 375. Geburtstag, sondern auch den 90. Jahrestag von Gödels berühmter Arbeit von 1931 und das achtzigjährige Jubiläum des ersten funktionsfähigen programmgesteuerten Computers von Zuse (1941) auf der ganzen Welt.
Der Informatiker Jürgen Schmidhuber zählt zu den besten KI-Forschern der Welt. Er lehrte zunächst an der TU München und ist seit Mitte der neunziger Jahre wissenschaftlicher Direktor am Schweizer KI-Institut IDSIA.