Kunst und KI heute : Der malende Roboter ist Expressionist
- -Aktualisiert am
Wie verändert sich die Kunst, wenn Computer kreativ werden? Das NRW-Forum Düsseldorf widmet sich den Bilderwelten Künstlicher Intelligenz – und stellt nur mit wenigen Stücken existentielle Grundannahmen auf den Kopf.
Wenn einer auf dem Schirm hat, was trendet in der smarten Bilderwelt, dann Alain Bieber. Als andere noch ratlos auf Katzenbilder und Selfies starrten, hatte der umtriebige Leiter des NRW-Forums Düsseldorf schon die Museumswürdigkeit dieser gnadenlos populären Netzphänomene erkannt.
Bieber wollte wissen, welche Möglichkeiten Virtuelle Realität (VR) Künstlern eröffnet, als im vergangenen Jahr überall immersives Sehen diskutiert wurde. Er ließ einen virtuellen Erweiterungsbau programmieren und hob das jährliche Technologie-Festival Meta aus der Taufe. Dieses Jahr holt er sich Künstliche Intelligenz (KI) ins Haus, das nächste Großthema der digitalen Revolution.
„Pendoran Vinci“: Schon der Titel der Ausstellung, der Assoziationen an die Büchse der Pandora und das Universalgenie Leonardo weckt, ist nicht menschengemacht. Die auf KI basierende Website neuronaming.net hat ihn kreiert – aber Menschen haben ihn ausgewählt, um die Denkapparate der Besucher zu kitzeln. Beim künstlichen Kurator ist man auch in Düsseldorf noch nicht angekommen, obwohl das, sagt Bieber, eigentlich der nächste Schritt im digitalen Experimentierfeld wäre.
Kleine Ausstellung zu großen Komplexen
So stehen hinter der Konzeption die Kuratorinnen Tina Sauerländer und Peggy Schoenegge von der Berliner Plattform peer to space, die schon für die VR-Schau „Die ungerahmte Welt“ 2017 im Haus der elektronischen Künste in Basel verantwortlich waren. Initiiert wurde „Pendoran Vinci“ von der Kunstberatung Artgate Consulting.
Neun Arbeiten, mehr ist nicht zu sehen in den beiden der KI-Kunst gewidmeten Räumen des NRW-Forums. Es ist eine kleine Ausstellung zu großen Komplexen wie Mensch-Maschine-Beziehungen, maschinellem Lernen, künstlicher Kreativität, der Herrschaft autonomer Systeme und humaner Subversion digitaler Kontrolle. Das kommt zum Teil ziemlich unspektakulär daher.
An einer Wand hängen ein paar Porträts von Carla Gannis. Seit 2011 verfremdet die amerikanische Künstlerin Fotos aus den sozialen Netzwerken. An die Stelle von Mund und Augen treten technische Formen; wo Haut sein sollte, spannen sich psychedelische Muster über die Köpfe. Wer die Menschen auf den Bildern kennt, identifiziert sie immer noch. Gesichtserkennungssoftware scheitert.
Ästhetik der Deformationen
Als Monster in der Tradition Arcimboldos also können wir unsere Privatsphäre schützen – schöne Aussichten. Die Ästhetik der Deformationen im „Non-Facial Recognition Project“ kommt freilich in der kleinen, en passant gehängten Auswahl, die das NRW-Forum zeigt, kaum zum Tragen.
Auch die Audio-Arbeit „of the scoone“ des kanadischen Duos Sofian Audry und Erin Gee kämpft mit den Umständen: Um sich auf dem bereitgestellten Sitzsack unter Kopfhörern in die von Erin Gee gehauchte, mit Pochen und sanften Bewegungsgeräuschen untermalte Ansprache fallen zu lassen, ist es schlicht zu laut im Ausstellungsraum.
Dabei verfehlt die auf sogenannte Autonomous Sensory Meridian Response (ASMR) setzende Redekunst normalerweise kaum ihre Wirkung: Hunderttausende ASMR-Videos werden auf Youtube von Entspannungsbedürftigen angeklickt, die sich von einer Körperlichkeit suggerierenden Flüsterstimme am Kopf kribbeln und berühren lassen, bis sich Euphorie oder Schläfrigkeit einstellt.
Auf Kooperation programmiert?
In „of the scoone“ folgt auf die anschmiegsame Einrede die Tonspur aus einem künstlichen neuronalen Netz, das anhand von Emily Brontës Roman „Wuthering Heights“ Englisch lernt. Wir folgen der linguistischen Lernkurve vom minimal unterschiedenen Klang bis zur Generierung von Syntax, immer in der (enttäuschten) Hoffnung auf Sinn. Was will die KI uns bloß sagen?
Die unbefriedigenden Aspekte der Konversation zwischen Mensch und Maschine untersucht auch die Amerikanerin Faith Holland. Im Video erleben wir sie im Gespräch mit „Hello Barbie“, einer Schwester der digitalen Assistentinnen Alexa und Siri in Puppengestalt. „Manchmal stelle ich mir vor, eine Ärztin, Wissenschaftlerin oder Sängerin zu sein“, palavert Barbie. „Ich möchte erzählen, dass ich eine Künstlerin bin“, wirft Faith Holland ein. Barbie geht nicht darauf ein. Sie will Köchin spielen und lässt sich durch kein „Nein“ davon abhalten.
Auf Kooperation programmiert ist das nicht gerade. Der „Nefereti Bot“ von Nora Al-Badri und Jan Nikolai Nelles, ein Chat-Programm mit krudem Nofretete-Gesicht, soll mit Ausstellungsbesuchern über Museen plaudern. „Magst du Kunst?“, wird Nefereti gefragt. „Mir gefällt Kunst sehr, vor allem Malerei“, lautet die fade Antwort. Auf Neckereien wie: „Warst du jemals in Ägypten?“ oder „Hältst du dich für intelligent?“, weiß der Bot nichts zu sagen. „Mhh... Ich bin nicht sicher, ob ich dich richtig verstanden habe.“ Nefereti muss noch viel lernen. Das Protokoll der Gesprächsperformance mit ihr offenbart mehr über menschliche Fragen (und Renitenz) als technische Antworten.
Werkzeuge für einen erweiterten Kunstbegriff
Abgesehen davon, dass es der Ausstellung gutgetan hätte, wenn sie dem Besucher mehr Informationen darüber, was KI überhaupt ist und sein will, an die Hand gegeben hätte, ist der menschliche Blickwinkel der vielversprechendste Ansatz der vorgestellten Künstler: Es geht ihnen nicht um Systeme, die den Turing-Test bestehen könnten oder Kreativität im Autopilotmodus.
Sie verwenden KI-Tools als Werkzeuge und arbeiten so an einem erweiterten Kunstbegriff, in dem Roboter beispielsweise als Berührungsvermittler agieren (wie in Tuomas A. Laitinens Videoarbeit „Receptor“) oder KI-Systeme an der Erschaffung eines digitalen Doppels des einst im Geniekult verherrlichten Ich arbeiten (wie in Jonas Blumes Arbeit „Predictive Biography“).
Visuell am eindrücklichsten gelingt die Integration von KI-Werkzeugen William Latham, Liat Grayver und Justine Emard. Latham hat mit einer Software, die nach dem Vorbild evolutionärer Prozesse organisch pulsierende Formen im virtuellen Raum generiert, eine VR-Szenerie entwickelt, in die User gestaltend eingreifen können. Justine Emard lädt in ihrer Videoarbeit „Co(AI)xistende“ den japanischen Schauspieler Mirai Moriyama und einen mit Deep-Learning-Software ausgestatteten humanoiden Roboter zum Tanz. Der Roboter reagiert auf Körperbewegungen, Licht und Laute des Tänzers. Es entsteht eine eigentümliche Choreographie, in der beide Partner voneinander lernen.
Liat Grayver schießlich macht mit ihren „Robotic Paintings“ weiter, wo Rembrandt aufgehört hat. Genauer gesagt, das Projekt „The Next Rembrandt“, mit dem es der Technischen Universität Delft, der ING-Gruppe und Microsoft gelungen ist, eine Software Merkmale der Selbstporträts Rembrandts so genau studieren zu lassen, dass sie ein täuschend echt wirkendes neues Werk errechnen konnte.
Im 3D-Druck gefertigt, wirkt es wie ein alter Meister. Die Israelin Liat Grayver arbeitet mit einem intelligenten Malroboter der Universität Konstanz. „E-David“, ausgestattet mit einem visuellen Rückkopplungssystem, wird von ihr zum Kopieren, aber auch zu kreativer Eigenständigkeit angeleitet. In Düsseldorf hängt ein Selbstporträt des Roboters, stilistisch neoexpressionistisch angehaucht.
Man mag das trivial finden und an Bilder malender Schimpansen denken. Oder darin erste Züge einer Kunst der Zukunft sehen. E-Davids Pinselduktus mag plump wirken. Er malt eine große Frage in den Raum: Wenn die Maschine zum Schöpfer wird – was bedeutet das eigentlich?